How to cope… #3: Bots, KI und Desinformationskampagnen
Das Internet gehört schon lange nicht mehr uns Menschen. Und – das sind jetzt ganz schlechte Nachrichten! – leider auch nicht den Katzen. Wenn du heute durch soziale Medien scrollst, bewegst du dich durch eine Informationslandschaft, die zunehmend von Bots und KI-generierten Inhalten geprägt ist. Während früher Schwurbel-Trolle, Propagandaseiten oder p0rn-Bots das Hauptproblem darstellten, hat sich die Lage in den letzten Jahren qualitativ verändert: Inhalte, die auf den ersten und ganz oft auch auf den zweiten Blick wie menschliche Meinungen aussehen, werden heute in Massen von generativen KI-Systemen produziert, automatisiert verbreitet und in orchestrierten Kampagnen miteinander verknüpft.
Und wir, die User*innen, stehen dem in nichts nach: Die Arbeiten von echten Künstler*innen werden kopiert, Comics und “Fanart” nicht mehr per Hand sondern per KI erstellt und viele machen sich nicht einmal mehr die Mühe, ein Sharepic selbst zu gestalten, sondern bitten einfach die KI, Schrift auf einen Hintergrund zu setzen, der in diesem Atemzug gleich mit generiert wird. Der Beitragstext zum Sharepic? Natürlich auch KI-generiert und sehr oft nicht verfeinert oder in den eigenen Stil umgeschrieben. Eine andere Unart sind Seiten, die vermeintlich interessante Popkultur- und Geschichtsfakten oder Hintergründe über historische Persönlichkeiten präsentieren, und deren Inhalte leider oft auch von vertrauenswürdigen Accounts und Freund*innen weiterverbreitet werden. In so gut wie allen Fällen sind die Daten falsch, Ereignisse übertrieben, emotionalisiert, hinzugedichtet und Zusammenhänge falsch dargestellt. Die Folge: Gefährliches Halbwissen entsteht und die Grenze zwischen echter Internet-Erfahrung und digitalem Hintergrundrauschen zerfließt.
KI-Inhalte und Desinformation verändern dabei nicht nur, was wir denken, sondern wie wir denken können. Sie zerstören Orientierung, indem sie uns mit Orientierungslosigkeit überschütten. Sie zerstören Vertrauen, indem sie uns an der Möglichkeit des Vertrauens zweifeln lassen. Und sie zerstören Gemeinschaft, indem sie künstlich Konflikte erzeugen, die unsere echten Beziehungen schwächen (können). In einer Welt, die ohnehin schon von Unsicherheit geprägt ist, ist das fatal! Wenn du nicht mehr weißt, wem du vertrauen kannst, was stimmt, was echt ist und was nicht, wird auch dein inneres Gleichgewicht fragiler. Wir sind nach wie vor “mütend” (Anm.: müde und wütend, ein Begriff aus der Corona-Pandemie), gereizt, ausgebrannt, gehen der globalen Zustände und persönlichen ökonomischen Krisen wegen teilweise auf dem sprichwörtlichen Zahnfleisch. Genau in diesem Spannungsfeld entfalten Bots und Desinformationskampagnen ihre volle manipulative Wirkung und packen uns dort, wo es uns weh tut.
Die Sache ist die: Menschen in Stresssituationen suchen nach Entlastung, Bedeutung und Orientierung. Das ist völlig normal und verständlich. Aber das ist auch ein Zustand, in dem wir besonders anfällig für manipulative Botschaften sind, weil unser Gehirn in solchen Momenten eher schnelle, intuitive Entscheidungen trifft und sich nicht mit kritischem Prüfen und langem Bewerten von “richtig und falsch” aufhalten möchte (Kahneman 2011). Vielmehr verlassen wir uns auf geistige Abkürzungen wie „Ah, das habe ich schon oft gesehen, also muss etwas dran sein“ (Hasher & Zacks 1984) oder “Wenn so viele Leute das glauben, kann es nicht ganz falsch sein”. Oder wir nutzen einfach das “Schwarmwissen”.
In Gefahrensituationen der Vergangenheit, als wir beispielsweise vor dem Säbelzahntiger oder dem wütenden Mammut davonlaufen mussten, mag das noch einen Nutzen gehabt haben. Wir mussten schnell und mit wenigen/verkürzten Informationen bewerten können, ob uns ein rettender Sprung gelingt, ob wir angreifen oder vielleicht lieber weglaufen sollten. Oder ob der Tipp, den wir von jemandem aus unserer Sippe für solche Krisen bekommen haben, wirklich funktioniert oder ob er uns schneller umbringt als der Tiger. Eine umfangreiche Analyse unserer Umgebung und aller Eventualitäten hätte uns im wahrscheinlichsten Fall den Hals gekostet. Und damit wären wir tot und raus aus dem Genpool. Ein No Go! In der heutigen Zeit und vor allem im digitalen Raum wird uns dieser Notfallmechanismus zum Verhängnis: Desinformation bietet dem überlasteten Gehirn genau diese einfachen und verkürzten Antworten, eine emotionale Erregung und dazu das trügerische Gefühl, „hinter die Kulissen zu blicken“ und es ohne große Anstrengung “begriffen zu haben”. Die rettende Erleichterung kommt schnell und wird direkt auf dem digitalen Silbertablett präsentiert. Perfekt.
Informationsverschmutzung
Seit der breiten Nutzung generativer KI wie Chat GPT ist neben klassischer Desinformation noch eine ganz neue Kategorie digitaler Inhalte entstanden: massenhaft, billig, repetitiv und emotional aufgeladen. Diese Inhalte nennt man „Slop“ und sie werden in Text-, Bild-, Video- oder Memeform produziert. Unseren ganzen Artikel zu AI-Slop kannst du hier nachlesen: (Link)
Das Ziel von Slop ist selten, dich von einer bestimmten Meinung zu überzeugen. Viel häufiger geht es darum, deine Informationsumgebung zu überfluten – ähnlich wie eine Ölpest, die das Wasser trübt, damit du nicht mehr erkennst, was sich darunter befindet. Oder wie die Taktik “Muddying the Waters”/”Flooding the Zone with Shit”, bei der ernsthafte Diskussionen so lange von Falschinformation, Hass und Verschwörungserzählungen geflutet werden, dass man die echten Informationen und Fakten nicht mehr richtig erkennen kann.
Die Forschung spricht hier auch von Information Pollution oder „Cognitive Noise“. Je mehr widersprüchliche, instabile oder offensichtlich falsche Inhalte in deinem Feed auftauchen, desto schwerer fällt es dir, ein klares Bild der Wirklichkeit zu behalten. Immer alles im Blick haben zu müssen, ist unglaublich anstrengend. Dein Gehirn reagiert darauf, indem es die Verarbeitungstiefe reduziert (es schaut nicht mehr genau hin), indem es mentale Abkürzungen nimmt (“kenne ich, glaube ich”) und irgendwann sogar kapituliert und aufgibt, überhaupt noch aktiv zu unterscheiden. Diesen Mechanismus nennen wir „Cognitive Overload“. Dein Gehirn wird geDDoSt und das ist eine der persönlich tragischsten Folgen der Informationsverschmutzung, weil es uns allen passieren kann. Es erfordert viel Medienhygiene, Resilienz und Selbstdisziplin, sich davor zu schützen.
KI-Slop nutzt keine Überzeugungsstrategien, wie< wir es von Fake News-Portalen oder den Argumentationsketten der Verschwörungsideologien kennen, sondern erschlägt dich durch seine schiere Masse. Das ist effizient, billig und hat strukturellen Einfluss auf unsere Meinungsbildung: Wenn alles unsicher, verwirrend oder beliebig scheint, erscheinen Fakten und die Realität plötzlich nur noch als Geschmackssache.
Bots, Bandwagon und Meinungsbildung
Bots gab es natürlich lange vor generativer KI und die meisten von uns schlagen sich in den Socials schon seit Jahren mit ihnen herum. Doch ihre Funktion hat sich verschoben. Heute sind sie nicht mehr nur die offensichtlichen Trolle und Spammer, die p0rn in eure Gruppen posten. Sie sind die unsichtbaren Arbeiter*innen im Hintergrund: Sie pushen Trends, verstärken bestimmte Narrative, treiben polarisierende Debatten an und signalisieren scheinbare Mehrheiten. Wenn Menschen glauben, dass viele andere eine Meinung teilen, steigt die Wahrscheinlichkeit, dass sie sich dieser anschließen. Ein Effekt, der als „Bandwagon Effect“ (dt. Mitläufereffekt) bekannt ist.
Wenn du überall Menschen/Accounts siehst, die augenscheinlich etwas glauben oder fordern, übt das zwangsläufig eine gewisse Anziehungskraft aus – gerade in politisch prekären Zeiten, in denen Zugehörigkeit ein psychologisches Grundbedürfnis ist. Das Überrennen und Fluten von Kommentarspalten und/oder öffentlichem Raum ist vor diesem Hintergrund eine sehr effektive Taktik. Bots erzeugen damit genau diese künstlichen Mehrheiten. Sie liken, teilen, kommentieren, provozieren und reihen sich als vermeintliche „normale Bürger*innen“ in Diskussionen ein. So entsteht der Eindruck, bestimmte radikale Positionen seien weit verbreitet oder würden von „der echten Bevölkerung“ getragen. Seitenbetreibende kennen das vielleicht: ihr postet zum Beispiel etwas gegen Rechts und habt kurz darauf einen Haufen Rechtstrolle in euren Comments, die euch auslachen, beschimpfen oder “echte” Accounts motivieren möchten, sich ihnen anzuschließen. Viele von euch machen deshalb verständlicherweise ihre Kommentarspalten zu.
Auch gut bekannt sind Bots, die Threads auf Reddit (und inzwischen X und Facebook) starten und sich dort in den Kommentarspalten nur mit anderen Bots unterhalten und überhaupt keine menschliche Interaktion mehr stattfindet. Viele User*innen, die beispielsweise über Google zu dem Thread gekommen sind, denken dann fälschlicherweise, hier würde ein “normales” Online-Gespräch stattfinden und übernehmen die dort präsentierten Informationen als “Schwarmwissen” o.ä. Damit entsteht ein digitales Zirkulationssystem von gefährlichem Halbwissen, Falsch- und Desinformation, das von Bots und echten Menschen gleichermaßen aufrechterhalten wird.
Desinformationskampagnen und mediale Doppelgänger
Auch wenn es zu Beginn dieser “Ära” noch so ausgesehen haben mag, die massenhafte Produktion von Slop und der Einsatz von Bots sind selten spontane Phänomene oder fehlgeleitete Contentversuche von Digital Creators. Oft stehen dahinter strategisch koordinierte Akteure – staatliche oder para-staatliche, politische Bewegungen, Propagandaagenturen oder private Firmen.
Eine der bekanntesten Firmen der letzten Jahre ist die russische Social Design Agency (SDA). Sie produzierte gefälschte Nachrichtenportale, Social-Media-Profile, lokale Pseudomedien und sogar NGOs, die speziell darauf ausgelegt waren, gesellschaftliche Konflikte in Europa und den USA auszunutzen (Tagesschau).
Im Mittelpunkt steht dabei wieder ein psychologisches Prinzip: Nicht die Hintergründe, Fakten und Daten sollen verändert, sondern unser Vertrauen in sie zerstört werden. Wenn du irgendwann nicht mehr weißt, welchen Quellen du trauen kannst, kommt es nicht darauf an, ob eine Kampagne dich überzeugt. Allein dein Misstrauen reicht schon als politischer Effekt. Und da vielen Menschen leider auch heute noch die grundlegende Medien- und Digitalkompetenz und somit das Handwerkszeug zum Checken von Fakten fehlt, haben Desinformationskamapgnen leichtes Spiel.
Eine besonders aufsehenerregende Operation war „Projekt Doppelgänger“, eine russische Kampagne, die seit 2022 westliche Medien, Regierungswebseiten und NGOs täuschend echt imitierte. Die Kampagne nutzte KI-generierte Texte, gefälschte Domains und gezielte Bot-Verbreitung, um Desinformation in ein vertrautes Gewand zu kleiden (EU DisinfoLab 2023).
Zentral ist dabei die Wiederholung der Desinformation. Nicht, weil falsche Inhalte dadurch „logischer“ werden, sondern weil unser Gehirn Vertrautheit mit Echtheit verwechselt. Wenn ein Link aussieht wie die BBC, ZDFheute oder der SPIEGEL, aktivieren wir deutlich weniger kritische Kontrollmechanismen (Whittlesea 1993).
Der Fallstrick ist, dass du vielleicht denkst “Ah, ja, dieses Medium kenne ich. Wird also schon stimmen.” und dabei nicht auf die URL achtest (sie führt i.d.R. nicht auf das Nachrichtenportal, sondern auf eine gänzlich fremde Seite), nicht auf den Schreibstil (oftmals unseriös und reißerisch) oder auf die im Artikel ausgerollte Werbung (bewirbt oft Kryptowährungen, dubiose Finanzberater oder Goldverkäufer). Dabei bespielen diese Desinformationskampagnen häufig mehrere Ebenen gleichzeitig: gefälschte Nachrichtenportale, Social Bots, KI-generierte Inhalte, Microtargeting, infiltrierte Communitys und manipulative Narrative (EU DisinfoLab 2023, NATO StratCom 2023).
Unsere Meinungsveränderung durch Desinformationskampagnen passiert also selten sofort und durch eine einzelne Kampagne. Vielmehr funktioniert sie wie Wasser, das über lange Zeit an derselben Stelle tropft: Der einzelne Tropfen mag schwach erscheinen, aber die Summe höhlt den Stein. Das Ergebnis ist nicht nur die Verbreitung falscher Informationen, sondern das Verändern unserer Wahrnehmung der Welt, eine schleichende Erosion der demokratischen Informationsordnung und des daraus resultierenden kleinsten “gemeinsamen Nenners” einer Gesellschaft.
Wie du dich schützen kannst
Desinformationskampagnen:
Der wichtigste Schritt im Umgang mit diesen Kampagnen beginnt damit, die eigene Erwartung an digitale Räume neu zu sortieren. Viele Menschen kapitulieren, weil sie unbewusst davon ausgehen, dass das Internet ein Abbild der gesellschaftlichen Realität sei. Doch digitale Plattformen sind keine repräsentativen Bevölkerungsumfragen, sondern algorithmisch sortierte Bühnen, auf denen menschliche und nicht-menschliche Akteur*innen gleichermaßen um Aufmerksamkeit konkurrieren. Wenn du dir bewusst machst, dass vieles, was wie „Mehrheitsmeinung“ aussieht, aus künstlicher Verstärkung besteht, verliert der Eindruck des kollektiven Drucks seine Schwere. Du begegnest dem Rauschen anders, wenn du weißt, dass es nicht von Menschen stammt.
Am blendest du manipulierende Accounts aus, meldest und/oder blockierst sie ganz. Das menschliche Arbeitsgedächtnis ist extrem begrenzt; es kann nur wenige Informationsstränge gleichzeitig stabil halten. In einer Umgebung, die absichtlich mit synthetischen Wiederholungen überfüllt wird, wirkt es befreiend, die Aufmerksamkeit auf wenige, verlässliche Quellen zu konzentrieren. Wenn du die Menge reduzierst und deinen Feed sauber hältst, verringerst du damit auch elegant deinen Stress.
AI-Slop und Bots:
Für Slop-Inhalte funktioniert ein einfacher, aber wirksamer Faktencheck-Workflow:
1. Öffne den Inhalt immer in der Originalquelle, und verlasse dich nie auf Screenshots, denn sie können leicht manipuliert sein.
2. Prüfe, ob der Text konkrete Angaben macht – Namen, Orte, Daten, Institutionen – und ob diese überprüfbar sind.
3. Untersuchungen (und die Erfahrung) zeigen, dass Falschinformationen häufig extrem vage bleiben oder übertrieben spezifisch sind, ohne Referenzen zu nennen.
4. Achte auch auf den Schreibstil: KI-generierte Slop-Texte nutzen oft generische Formulierungen, übermäßige Adjektive oder Wiederholungen, weil die zugrunde liegenden Modelle auf statistischen Wahrscheinlichkeiten basieren und nicht auf realer Expertise (Mitchell et al. 2023, https://arxiv.org/abs/2303.12203).
5. Ein weiterer hilfreicher Schritt ist die Bildrückwärtssuche, besonders bei politischen Memes oder angeblichen „Live-Fotos“. Viele Bilder, die in Krisen viral gehen, stammen aus völlig anderen Jahren oder Kontexten.
Mehr Infos zum Faktenchecken findest du in unserem Facts Project.
Bots haben eine bestimmte Sprache – sie wiederholen Formulierungen, die wie aus Skripten wirken, reagieren extrem schnell, posten rund um die Uhr, verwenden oft generische Profilbilder oder scheinen in völlig unterschiedlichen Themenfeldern gleichzeitig aktiv zu sein. Wenn dir ein Account begegnet, der dir „seltsam“ vorkommt, lohnt es sich, die Interaktionsmuster kurz anzuschauen.
Für den Notfall:
Ein wichtiger Notfallmechanismus ist die bewusste Unterbrechung emotionaler Reaktionen. Wenn du beim Scrollen merkst, wie dein Körper sich anspannt, die Atmung schneller wird oder ein Thema dich sofort „packt“, dann ist das oft ein Zeichen dafür, dass der Inhalt nicht informieren, sondern manipulieren soll. Ein einfacher, aber wirkungsvoller Notfalltrick besteht darin, das Gerät für eine Minute aus der Hand zu legen, tief zu atmen und erst dann zu entscheiden, ob du weiterliest. Diese scheinbar kleine Verzögerung schafft neurokognitive Distanz und reduziert die Wahrscheinlichkeit, dass du im Affekt reagierst oder Falsches für plausibel hältst.
Autorin: Giulia Silberberger
Diese Artikelreihe erscheint jeweils am 01. und am 15. eines Monats.
Bitte beachte, dass wir keine psychologische Betreuung/Beratung oder medizinische Behandlung anbieten. Depressionen, seelische Erkrankungen und tiefgreifendere Sorgen, Nöte und Probleme solltest du immer mit Fachleuten wie z.B. Psychotherapeut*innen besprechen.
Dir hat der Artikel gefallen?
Zur Durchführung unserer Arbeit erhalten wir keine Förderung oder Gelder aus öffentlichen Mitteln. Druckkosten, Honorare und Dienstleistungen der Medienschaffenden müssen mit den bestehenden Geldern der Organisation finanziert werden. Wir sind daher auf eure Spenden angewiesen.
„Der goldene Aluhut“ ist eine gemeinnützige Organisation.
Um uns zu unterstützen, und uns somit die Aufrechterhaltung unserer Arbeit zu ermöglichen, nutze bitte unser PayPal-Spendenkonto (oder sende deine Spende direkt an: spenden@dergoldenealuhut.de) oder unser Spendenkonto bei der Postbank.
Spenden bis 300€ bedürfen keiner Spendenquittung. Bei Beträgen ab 300€ kontaktiert uns bitte für eine Spendenquittung.
Ihr könnt uns auch mit einer Steadymitgliedschaft unterstützen:
https://steadyhq.com/de/aluhut/
Für Steadymitgliedschaften können keine Spendenquittungen ausgestellt werden.