
Desinformation: „Die am meisten Betroffenen werden nicht genug geschützt“
Propagandaforscherin Elizaveta Kuznetsova erzählt im Interview, warum die Flut an Fake News seit dem Start von ChatGPT nicht das größte Problem ist und der Kampf gegen Desinformationen anders verteilt werden muss.
In Zeiten digitaler Wahlkämpfe und geopolitischen Spannungen gelten Desinformationskampagnen als eine große Bedrohung – erst recht seit der breiten Verfügbarkeit von Chatbots und Bildgeneratoren. Elizaveta Kuznetsova forscht am Weizenbaum Institut zu Desinformation und Propaganda. Sie sprach mit uns über die Herausforderungen bei der Bewältigung von Falschnachrichten und inwieweit generative KI Forscher:innen bei der Analyse unterstützen kann.
Wie lange forschst du schon zu Desinformation und wo liegt dein Schwerpunkt?
Elizaveta Kuznetsova (EK): Auf die ein oder andere Art forsche ich schon sehr lange zu Desinformation, mindestens seit meiner Doktorarbeit, für die ich Russia Today, den wichtigsten und bekanntesten russischen Propagandakanal, analysiert habe. Damals habe ich untersucht, wie der Sender internationale Politik interpretiert und Nachrichtenereignisse darstellt, um westliche Medien zu kontern. Damals habe ich vor allem mit dem Begriff Propaganda gearbeitet und eine Framing-Analyse angewendet, um zu verstehen, welche Botschaften Russland im Ausland verbreitet.
Das war aber eher eine klassische Inhaltsanalyse, damals habe ich mich noch nicht auf technische Aspekte konzentriert. Später habe ich dann angefangen, Algorithmen von Social-Media-Plattformen zu untersuchen, insbesondere wie sie mit russischer Propaganda umgehen. Die erste Studie, in der es auch um digitale Aspekte ging, befasste sich mit Facebook. Wir wollten herausfinden, wie die Plattform während der US-Wahl 2020 mit Beiträgen umging, die von der russischen Regierung gesponsert wurden – ob sie aus den Ereignissen von 2016 gelernt hatten.
Aktuell, im Rahmen meiner Forschung am Weizenbaum-Institut, untersuche ich unter anderem, welche Rolle generative KI bei Desinformation spielt.
Wie untersucht man Desinformation, wie geht ihr in eurer Forschung vor?
EK: Wir wenden in unserer Forschung verschiedene Methoden an, von qualitativer Textanalyse bis hin zu algorithmischen Experimenten und computergestützten Textanalysen. Klassische Inhaltsanalyse bedeutet, Texte zu lesen und Fakten, Interpretationen usw. zu analysieren. Das ist ähnlich wie bei Faktenprüfern. Sie lesen eine Geschichte und kontrollieren, ob sie korrekt oder irreführend ist, sie liefern Quellen und widerlegen falsche Aussagen.
Am häufigsten nutzen wir die Methode des algorithmischen Audits, eine Forschungsstrategie, die sich auf die Verbreitung problematischer Inhalte konzentriert. Die Analyse der Inhalte kann dabei immer noch ein Teil der algorithmischen Analyse sein, aber der Hauptzweck dieser Methode ist es, herauszufinden, wie bestimmte Beiträge auf bestimmten Plattformen verbreitet werden, ob Algorithmen ihre Verbreitung verstärken oder reduzieren.
Was sind Faktoren, die zur Desinformation in digitalen Räumen beitragen?
EK: Es ist eine Kombination aus sozialen, politischen und technologischen Aspekten und genau das macht das Problem so komplex und schwer zu bewältigen. Desinformation an sich ist kein neues Phänomen. Es gab schon immer Akteure, die aus politischen oder anderen Gründen Unwahrheiten erzählt haben, aber durch die technologischen Fortschritte kann sich Desinformation jetzt viel schneller und weiter verbreiten. Es ist ein transnationales Phänomen, das staatliche und ideologische Grenzen überschreitet. Das Problem bei dieser schnellen Verbreitung von Desinformation: Wenn Menschen das Gelesene oder Gehörte erstmal glauben, hält dieser Effekt lange an und es ist schwieriger, sie von etwas anderem zu überzeugen
Auf gesellschaftlicher Ebene ist es so, dass bestimmte Gruppen anfälliger für Desinformationen sind als andere. Oft geht es hier um Menschen, die unzufrieden mit dem Status quo sind und eher zu einer Systemfeindlichkeit neigen. Sie sind Desinformation tendenziell etwas häufiger ausgesetzt und auch empfänglicher dafür.
Natürlich spielt auch das allgemeine Bildungsniveau eine Rolle, obwohl auch unter besser Gebildeten eine recht hohe Anzahl von Menschen Falschnachrichten glaubt. Medienkompetenz ist hier sehr wichtig und nicht jeder gebildete Mensch ist medienkompetent oder versteht die Wirkungsweisen von Algorithmen.
Was wissen wir über die Akteure, die Desinformation verbreiten und die Themen, die für Desinformation besonders “geeignet“ sind?
EK: Die weit verbreitete Definition von Desinformation im Vergleich zu Falschinformation ist, dass Desinformation falsche Informationen sind, die mit Absicht verbreitet werden, um andere zu täuschen. Das macht einen Unterschied, wenn wir über Gruppen wie zum Beispiel QAnon sprechen, weil diese Leute wahrscheinlich wirklich glauben, was sie sagen und verbreiten. Es ist nicht ganz klar, ob sie Betrüger sind oder in einem Paralleluniversum leben. Das Problem dabei ist, dass gerade solche Gruppen, die sich in Informationsblasen bewegen, erst recht von bösartigen oder betrügerischen Akteuren, wie russischer Propaganda, ins Visier genommen werden.
Im Allgemeinen sprechen wir von Akteuren, die die öffentliche Meinung ändern wollen und diese Narrative als eine Form des Einflusses nutzen – ob aus politischen oder geschäftlichen Interessen.
Es gibt Themen, die bekannter oder beliebter für Desinformationen sind als andere, wie die Covid-Pandemie, der Klimawandel, der Krieg in der Ukraine und die russische Invasion, aber auch LGBTQ-bezogene Themen.
Eine der womöglich erfolgreichsten Desinformationsgeschichten ist, dass die Amerikaner nicht auf dem Mond gelandet sind. Sie wurde von der sowjetischen Regierung angeheizt. Damals fand sie wirklich viel Anklang – in den USA und weltweit – und viele glauben sie immer noch. Es ist auch eine Verschwörungstheorie.
Welche Auswirkungen hat Desinformation und was macht dir dabei am meisten Sorgen?
EK: Desinformation beeinflusst Politik – das heißt, sie beeinflusst, wie Bürger:innen wählen, wie Menschen die politische Sphäre und ihre Regierung wahrnehmen. Es ist ein sehr wichtiger Teil des gesellschaftlichen Lebens und hat Auswirkungen auf politische Einstellungen.
Im Fall des Krieges in der Ukraine sehen wir, ist das Hauptziel der russischen Propaganda, die sich an ausländische Zielgruppen richtet, die Unterstützung der Ukraine im Westen zu schwächen, damit westliche Regierungen keine Waffen mehr liefern. Zudem geht aus einer unserer Umfragen hervor, dass der Konsum russischer Propaganda einen Einfluss hat. In vielen Gruppen ist die Unterstützung für die Ukraine wirklich gesunken. Aus verschiedenen Gründen natürlich, aber wenn russische Propaganda in andere, bereits bestehende Narrative einfließt, kann sie diesen Effekt potenziell verstärken.
Das macht es sehr schwierig, die Auswirkungen in der Propagandaforschung zu untersuchen. Es ist kein alleinstehendes, einmaliges Ereignis, sondern erstreckt sich über viele Jahre. In experimentellen Studien kann man direkte Effekte sehen, aber das ist nicht dasselbe wie in der realen Welt, wenn Menschen in sozialen Umgebungen interagieren, in bestimmten Kontexten handeln und verschiedenen Themen ausgesetzt sind.
Welche Auswirkungen hat generative KI auf Desinformation?
EK: Das ist noch ein laufendes und sehr neues Forschungsfeld, daher ist es schwierig, das jetzt schon zu beantworten.
Ein Bedenken, das wir von Anfang an haben, ist, dass generative KI eine Menge Falschinformationen erzeugen würde. Die Technologie ist nicht darauf ausgelegt, Fakten zu überprüfen, sie soll nur das nächste wahrscheinlichste Wort vorhersagen und einen Text oder ein Bild ausspucken, das gut klingt oder gut aussieht – und das kann sie auch sehr gut. Unsere Befürchtungen sind, dass wir es plötzlich mit einer riesigen Menge Falschinformationen zu tun haben, die von Chatbots produziert und dann von Menschen geglaubt werden.
Unsere zweite Sorge ist, dass betrügerische Akteure generative KI nutzen könnten, um Desinformation in großem Maßstab zu produzieren, sodass wir auf immer mehr qualitativ hochwertige Desinformationskampagnen reagieren müssen.
Unsere dritte Sorge ist, dass autoritäre Länder versuchen könnten, die öffentliche Debatte durch diese Anwendungen zu kontrollieren. Und wir sehen, dass in China beispielsweise bereits eine erhebliche Kontrolle von Narrativen und Diskursen durch neue Technologien stattfindet.
Waren diese Bedenken gerechtfertigt? Hat die Menge an Desinformation zugenommen, seit dem es ChatGPT und Co. gibt?
EK: Es ist sehr schwierig, das gesamte Internet zu untersuchen, daher wissen wir nicht, wie viel Desinformation insgesamt vorhanden ist. Generell sehen wir, dass täglich immer mehr Informationen produziert werden, also sollte es auch mehr Desinformation geben. Aber ich denke nicht unbedingt, dass die reine Menge an sich ein Problem ist. Das Problem ist, wer dieser Desinformation ausgesetzt ist, in welchem Kontext und ob sie oder er darauf vorbereitet ist, damit umzugehen.
Ich glaube nicht, dass wir realistischerweise kontrollieren können, wie viele Informationen es da draußen gibt – wir können nicht einmal kontrollieren, ob Menschen solchen Informationen ausgesetzt sind. Und selbst wenn wir es könnten, wäre das ein ziemlicher Eingriff. Ich bin mir nicht sicher, ob das eine gute Idee ist.
Ihr habt auch untersucht, wie generative KI helfen kann, Desinformation zu bekämpfen. Was ist dabei herausgekommen?
EK: Ja. Neben all diesen Bedenken wollten wir sehen, ob wir große Sprachmodelle – die Technologie die hinter den Chatbots steckt – tatsächlich nutzen können, um das Problem der Desinformation anzugehen. Sie könnten bei der Analyse großer Textmengen und der Erkennung von Desinformation helfen. Aber auch das ist mit Herausforderungen verbunden. Wir haben immer noch Probleme mit mangelnder Zuverlässigkeit und Reproduzierbarkeit der Ergebnisse, weil die Ausgaben, die Chatbots generieren, auf vielen Zufällen beruhen.
Außerdem versteht ein Mensch den Kontext und die verborgene Bedeutung hinter Phrasen viel besser. Und selbst wenn Chatbots gut darin sind, bestehende Desinformationen zu identifizieren, können wir nicht sagen, wie gut sie bei unbekannten oder neuen Geschichten sind – ich vermute, nicht sehr gut, weil sie nicht dafür entwickelt wurden. Sie könnten also für eine erste Analyse des Textes verwendet werden, um bestimmte Inhalte herauszufiltern, bevor dieser an eine Person für eine gründliche Analyse weitergeleitet wird.
Chatbots selbst können auch – während der Interaktion mit ihnen – helfen, der Verbreitung von Desinformation entgegenzuwirken, indem sie bestimmte Sicherheitsmaßnahmen einführen. Zum Beispiel, indem bestimmte Regeln in deren System eingerichtet werden, die steuern, wie die Maschine auf bestimmte Themen oder Fragen in bestimmten Kontexten reagiert. Das ist eine Möglichkeit, um in solch einer Informationsumgebungen Vorkehrungen zu treffen.
Was wird sonst noch getan, um Desinformation zu bekämpfen, von Technologiefirmen sowie politischen Akteuren?
EK: Plattformen haben bereits einige Maßnahmen zur Bekämpfung von Desinformation umgesetzt. So kuratieren Suchmaschinen Informationen basierend auf der Quelle und priorisieren eindeutig seriöse Mainstream-Quellen – und sie sind ziemlich gut darin, Falschinformationen auf Englisch herauszufiltern. Das gilt allerdings nicht für viele andere Sprachen. Auf Russisch gibt es viel mehr Propagandaquellen als Medien, die Falschinformationen widerlegen. Die Strategie, bestimmte Quellen zu priorisieren, funktioniert hier also nicht besonders gut.
Ich vermute auch, dass Suchmaschinenbetreiber gar nicht so sehr daran interessiert sind, Informationslandschaften auf Russisch oder in anderen Sprachen in den Griff zu kriegen. Ihr Fokus scheint auf Englisch und auf ein paar anderen wichtigen europäischen Sprachen zu liegen. Kurz gesagt, sie tun etwas, aber es ist nicht genug.
Das Gleiche gilt für die Inhaltsmoderation auf Social-Media-Plattformen. Sie funktioniert, aber ich bin der Meinung, dass die Konzerne nicht genug investieren, besonders nicht für eine gute Moderation in allen Sprachen. Ihre Bemühungen, das Problem anzugehen, sind ungleich verteilt, was bedeutet, dass einige Gruppen – insbesondere die am meisten Betroffenen– nicht genug geschützt werden.
Auch ChatGPT tut etwas, um Menschen vor Falschinformationen bei der Verwendung ihres Chatbots zu bewahren. Sie haben definiert, was für sie sensible politische und soziale Themen sind und haben die Sicherheitsmaßnahmen des Bots angepasst. Wenn es um solch ein Thema geht, reagiert der Bot mit einer Art Disclaimer, oder der Output lautet: „Ich weiß es nicht“ oder „Bitte nochmal überprüfen, ich kann es nicht beantworten“.
Dann gibt es natürlich das Widerlegen von Falschinformationen und Entlarven von Desinformationskampagnen. Diese sehr wichtige Arbeit erledigen oft NGOs und Journalist:innen. Sie haben allerdings oft nicht genug Kapazitäten, konzentrieren sich also hauptsächlich auf sehr prominente Themen und können nicht alles abdecken. Da Falschinformationen sehr schnell ein Eigenleben entwickeln und ständig neue Narrative auftauchen, reichen die Ressourcen nicht aus, um sie in Echtzeit zu bewältigen.
Gibt es andere Wege, Desinformation zu bekämpfen, ohne dabei diesen falschen Narrativen hinterherzujagen?
EK: Der effizienteste Weg, das Problem zu bekämpfen, wäre zu verhindern, dass Menschen überhaupt Desinformationen ausgesetzt sind. Allerdings ist das sehr schwierig, da es so viele Inhalte im Internet gibt und wir nicht alle Winkel der Online-Welt kennen, in denen Desinformation stattfindet. Wir kennen einige, aber wir können nicht alle kontrollieren, und ich bin mir auch nicht sicher, ob wir das sollten. Dafür gibt es die Strategie des Pre-Bunking, bei dem versucht wird, den Menschen beizubringen, wie sie von vornherein nicht anfällig für Desinformation werden. Aber das ist eher ein Prozess der Bewusstseinsbildung darüber, wie man mit dieser Informationsflut umgeht.
Im Großen und Ganzen sind Medienkompetenzprogramme extrem wichtig, aber sie finden normalerweise nur in privilegierteren Gesellschaften statt. Wir haben nicht genug Expert:innen und die Bemühungen sind ungleich verteilt. Es wäre großartig, ein gut koordiniertes Medienkompetenzprogramm auf EU-Ebene zu haben, das tatsächlich auch besonders gefährdete Gruppen erreicht. Das wäre viel effektiver als das, was derzeit passiert. Aber wir bewegen uns auch auf einem schmalen Grat: Es ist wichtig, den Menschen beizubringen, wie sie mit verschiedenen Medienquellen umgehen und zuverlässige Informationen finden, ohne spezifische Narrative zu thematisieren oder ihnen zu sagen, was sie denken sollen. In der Praxis ist das eine echte Herausforderung.
Letztendlich wissen wir einfach noch nicht, welche Art von Informationsumgebung wir haben wollen, inwieweit wir sie kontrollieren oder die Menschen befähigen wollen, sich selbst darin zurechtzufinden. Die aktuellen Ansätze sind nicht sehr nachhaltig. Wir als Gesellschaft müssen das aushandeln, anstatt nur der Technologie die Schuld zu geben.
Vielen Dank für das Gespräch!
Mehr zu dem Thema:
Studie Makhortykh, M., Sydorova, M., Baghumyan, A., Vziatysheva, V., & Kuznetsova, E. (2024). Stochastic lies: How LLM-powered chatbots deal with Russian disinformation about the war in Ukraine. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-154
Elizaveta Kuznetsova leitet die Forschungsgruppe „Plattform-Algorithmen und digitale Propaganda“ am Weizenbaum-Institut. Sie arbeitet an der Schnittstelle von Kommunikationswissenschaften und Internationalen Beziehungen. Ihre Forschungsschwerpunkte sind digitale Propaganda, Social-Media-Plattformen und internationale Medien. Sie hat an der City, University of London in internationaler Politik promoviert.
Das Gespräch führte Leonie Dorn
Dieses Interview ist Teil des Fokus „Zusammenhalt in der Vernetzen Gesellschaft.“ Wissenschaftler:innen des Weizenbaum-Institutes geben in Interviews, Berichten und Dossiers Einblicke in ihre Forschung zu den verschiedensten Aspekten von digitaler Demokratie und digitaler Teilhabe. Mehr erfahren