Desinformation: acatech Themenkonferenz setzt Gefahren und Gegenmaßnahmen auf die Agenda
München, 19. Dezember 2023
Desinformation hat in den letzten Jahren an Relevanz gewonnen. Ursachen dafür sind unter anderem die Digitalisierung der Öffentlichkeit und Entwicklungen im Bereich der Künstlichen Intelligenz. Dadurch werden Werte der liberalen Demokratie bedroht: Valide und vielfältige Informationen sind eine notwendige Voraussetzung für das Funktionieren der öffentlichen Meinungsbildung. acatech widmete diesen aktuellen Fragestellungen am 14. Dezember eine eigene Themenkonferenz, auf der zusammen mit den Teilnehmenden eine differenzierte Momentaufnahme zu Desinformation entstand.
Gezielte Desinformation reicht heute vom vorsätzlichen Auslassen von Informationen bis hin zum Fälschen von Beiträgen etablierter Medien. Rasche Verbreitung finden diese insbesondere über Social Media Plattformen. Wie Institutionen und Unternehmen, aber auch jeder Einzelne, in der Flut der Informationen Falsches von Echtem unterscheiden und welche Technologien dabei unterstützen können, machten die teilnehmenden Akteure aus Wissenschaft, Wirtschaft, Journalismus und Non-Profit-Organisationen zum Gegenstand ihrer Vorträge auf der Online-Konferenz.
„Es geht um Vertrauen oder Misstrauen in das, was wir hören, lesen und sehen“, eröffnete acatech Präsident Jan Wörner die
Themenkonferenz. In seiner Begrüßung machte er klar, dass bereits kleine Fehlinformationen zu Verschwörungsmythen führen können.
Moderator und acatech Mitglied Jörn Müller-Quade vom Karlsruher Institut für Technologie leitete anschließend durch drei Themenblöcke aus kurzen Impulsvorträgen, die Strukturen und Strategien von Desinformation vorstellten, und in anschließenden Diskussionsrunden vertieft werden konnten.
Theorie: Die Systematik von Desinformation – und wie Akteure vorgehen
Der erste Teil der Themenkonferenz fokussierte eine grundlegende, theoretische Perspektive auf Desinformation und Wahrheit.
Ortwin Renn: „Wir sind mehr denn je auf Vertrauen angewiesen.“
acatech Präsidiumsmitglied Ortwin Renn vom Forschungsinstitut für Nachhaltigkeit – Helmholtz-Zentrum Potsdam (RIFS) eröffnete mit einem Überblick zu Möglichkeiten der Orientierung in Zeiten der Desinformation. Er erklärte, wie der Verlust von Vertrauen und Erfahrung die gesellschaftliche Wahrnehmung beeinflussen. Aktuelle, große Herausforderungen wie der Klimawandel können nicht mehr durch die eigene Erfahrung verifiziert werden. Und je komplexer die Herausforderungen, umso weniger plausibel erscheint mitunter, was die Evidenz uns nahelegt.
„Wir sind mehr denn je auf Vertrauen angewiesen, weil die eigene Erfahrung als Schiedsrichter fehlt. Gleichzeitig sind wir immer misstrauischer denen gegenüber, die uns diese Evidenznachweise geben können“, fasste Ortwin Renn zusammen. Die Aufgabe der Wissenschaften müsse sein, Vertrauen in die Vermittlung von Botschaften einzubinden und Desinformation zu dechiffrieren. „Wenn wir Angebote an die Menschen machen, selbst teilzunehmen an Entscheidungen, dann sind sie auch gewillt, evidenzbasierte Botschaften anzunehmen und ihr eigenes Handeln danach auszurichten“, schloss Ortwin Renn seinen Vortrag.
Lucia A. Reisch: „Die Werkzeuge für Deepfakes sind in den Händen vieler.“
acatech Mitglied Lucia A. Reisch, von der Cambridge Judge Business School, hob die Diskussion um Desinformation und Wahrheit auf eine internationale Ebene und erklärte, warum Desinformation oft so leichtes Spiel hat. „Die Werkzeuge für Deepfakes sind in den Händen vieler, die Kosten sind gering”, so Lucia A. Reisch. Generative KI könne das Problem potenzieren, etwa beim Einsatz von Multi-Agenten-KI, wo keine Menschen mehr involviert sind. Politik und Regulierung wie der AI-Act oder der EU Digital Services Act können gegensteuern.
Wichtig sei auch eine hohe Medienkompetenz der User, die Metawissen über Legitimation und Motivation der Kommunikatoren ermöglicht.
Christoph Neuberger – Erst prüfen, dann veröffentlichen.
Christoph Neuberger, Weizenbaum Institut, Freie Universität Berlin, Mitglied Plattform Lernende Systeme und acatech Mitglied lenkte in seinem Impulsvortrag den Blick auf die Plattform-Revolution: Ein Großteil der Meinungsbildung entsteht mittlerweile in den Sozialen Medien, die die frühere Gatekeeper-Funktion von journalistischen Instanzen umgehen. Die Maßgabe, erst zu prüfen und dann zu veröffentlichen, gelte dort oftmals nicht mehr.
Er gab auch zu bedenken, dass bei der Gegeninformation und Richtigstellung von Falschinformationen (oft auch als „Debunking“ bezeichnet) die Gefahr eines Backfire-Effekts bestünde, sich die Falschinformationen durch Wiederholung also umso stärker in den Köpfen der Medienkonsumierenden festsetzen. Die Polarisierung von Gruppen scheint auf den Plattformen ein stärkeres Problem zu sein als ihre Isolation in Echokammern oder Filterblasen.
Weiter gab Christoph Neuberger einen Überblick über die empirische Forschung zu Fake News und Falschinformation. Deren Verbreitung und Wirkung werde von den Wissenschaftlern differenziert und relativierend betrachtet: Das Problem existiere, jedoch sei die Verbreitung von Falschinformationen eher gering und in gesellschaftlichen Gruppierungen sehr ungleich verteilt. Besonders betroffen sind Gruppen, bei denen die Desinformation in das Weltbild passe. Hinweise für eine schnellere Verbreitung von Fake News und deren breite Wirkung sei ebenfalls nicht allgemeingültig festzustellen. Generell werde Sozialen Medien eher ein niedriges Vertrauen entgegengebracht.
Aus der Praxis: Wie lässt sich Desinformation entlarven?
Der zweite Teil der Impulsvorträge nahm konkrete Praxisbeispiele zum Umgang mit Desinformation und deren Systematiken im Journalismus in den Fokus.
Sophie Timmermann – Faktenchecks und Kontext
Sophie Timmermann, stellvertretende Leiterin von CORRECTIV.Faktencheck hatte Erfahrungswerte aus dem Bereich Faktencheck dabei. Sie illustrierte, auf welche Weise sich bestimmte Werkzeuge im journalistischen Alltag bewährt haben, um potenzielle Desinformation aufzuspüren und zuverlässig einzuordnen. Welcher Automatisierungsgrad sich dabei verwirklichen lässt, veranschaulichte sie am Beispiel des Faktenchecks bei CORRECTIV.
Bei ihren täglichen Aufgaben unterstützen verschiedene Recherchetools wie Bilder-Rückwärtssuche und Satellitenbilder oder pressespezifische Tools wie InVID von AFP dabei, Bilder und deren Kontexte zu verifizieren oder Videos auf Metadaten zu überprüfen. Wichtig dabei sei es herauszufinden, wann entsprechende Aufnahmen erstmals veröffentlicht wurden, um so den korrekten Kontext zu finden. Auch Faktencheck-Datenbanken können einen Überblick über aktuell kursierende Faktenchecks geben. Wichtig sei in diesem Zusammenhang, nur Tatsachenbehauptungen zu prüfen und keine Meinungsäußerungen.
Henriette Löwisch: „Die Menschen brauchen unsere Skepsis.“
Henriette Löwisch, Leiterin der Journalistenschule München berichtete aus der journalistischen Ausbildung und dass in Zeiten von gezielten Desinformationskampagnen Faktenchecks und digitale Verifikation zu den technischen Fähigkeiten im journalistischen Handwerk zählen.
Der Einsatz von KI-Tools für Journalisten birgt zahlreiche Herausforderungen: So sind sie zwar zur Auswertung großer Datensätze sehr nützlich, doch jede KI-Leistung müsse auch gegengecheckt werden.
Zudem kann Journalismus dadurch anonymer werden und die Zuordnung von Informationen zu einem Medium oder Medienschaffenden fällt schwerer. „Journalistinnen und Journalisten müssen die KI in ihren Grundzügen verstehen, damit sie die technische Entwicklung kritisch begleiten können – ihre wirtschaftlichen, gesellschaftlichen, politischen und regulatorischen Dimensionen.“, so Henriette Löwisch.
Technologische Maßnahmen zur Abwehr von Desinformation
Welche technologische Handhabe es im Kampf gegen Desinformationen gibt, war Gegenstand des dritten Vortragsteils.
Hanna Katharina Müller: „Desinformation lässt sich nicht einfach wegregulieren.“
Hanna Katharina Müller, Referatsleiterin im Bundesministerium des Innern H III 4 (Politische Ordnungsmodelle; Hybride Bedrohungen; Desinformation) veranschaulichte, mit welchen Mitteln Regierungsorgane den Gefahren auf nationaler Ebene begegnen und welche Strategien sich auch für andere Stakeholder daraus ableiten lassen. Das Thema Desinformation hat sicherheitspolitische und gesellschaftspolitische Relevanz. Bei Gegenmaßnahmen können zivilgesellschaftliche Institutionen und der Journalismus unterstützen.
„Von Desinformation geht eine Gefahr für unsere freiheitliche Demokratie aus, weil sie uns als Gesellschaft spalten und Schaden anrichten soll. Desinformation verfolgt das Ziel, gesellschaftliche Konflikte zu verschärfen, Vertrauen in staatliche Institutionen zu untergraben sowie Wut und Hass zu schüren. Die Bundesregierung geht daher entschlossen gegen Desinformation vor – neben angemessenen reaktiven Maßnahmen, wie der Richtigstellung von Falschinformationen, stehen Prävention und der Aufbau von gesamtstaatlicher und gesellschaftlicher Resilienz im Fokus.“, erklärte Hanna Katharina Müller.
Aber Desinformation sei nicht das größte Problem: Narrative, die Zweifel säen, seien herausfordernder. So warf Hanna Katharina Müller die Frage ein, wie Zielgruppen erreicht werden könnten, die ohnehin sehr staatsfern seien. Dafür habe das BMI zahlreiche Formate entwickelt, die sich noch im Aufbau befinden, so z. B. eine Task Force gegen Desinformation oder für 2024 einen Bürgerrat.
Johannes Wörle – Desinformation und extremistische Kreise
Auf Landesebene knüpfte Johannes Wörle, Regierungsdirektor SG E5 im Bayerischen Staatsministerium des Innern, für Sport und Integration an. Er gab Einblicke in die Auswirkungen von Desinformation auf die innere Sicherheit, also eine stärker verfassungsschutzspezifische Perspektive: Dabei gehe es im Kern um gesteuerte Desinformationskampagnen, die von außen, teilweise von fremden staatlichen Akteuren, kommen und insbesondere in extremistischen Kreisen Verbreitung finden, meist in den Sozialen Medien. Insbesondere die enge Zusammenarbeit mit dem BMI und den Akteuren in anderen Bundesländern sei hilfreich im Kampf gegen Desinformation.
Nicolas Müller: „Viel besser ist es, die KI auf unsere Seite zu ziehen.“
Nicolas Müller, wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) fokussierte anschließend auf die technische Unterstützung für das Aufspüren von Desinformation sowie erprobte Gegenmaßnahmen. Hinsichtlich der Möglichkeit zur Erstellung und Verbreitung von Desinformation gab Nicolas Müller zu bedenken, dass KI zunehmend einfach zu bedienen sei. Drei Ansätze für Gegenmaßnahmen stellte er genauer vor. Zum einen gelte es, die Bevölkerung aufzuklären und Medienkompetenz zu vermitteln. Zum anderen steht eine KI-gestützte Deepfake-Erkennung zur Verfügung. „Viel besser ist es, die KI auf unsere Seite zu ziehen und Fakes zu erkennen“, so Nicolas Müller. Mit „Deepfake Total“ stellte er eine Plattform vor, mit deren Hilfe sich Files oder YouTube-Videos verifizieren lassen. Eine dritte Strategie ist die Verifikation von Content über Zertifikate, die über Metadaten eine kryptografische Sicherheit und einen breiten Community-Support bieten. Der Nachteil: Metadaten lassen sich auch entfernen oder manipulieren. Trotz der zahlreichen, vielversprechenden Lösungsansätze stelle Nicolas Müller klar: „Es gibt keine Lösung, die alles abdeckt. Es muss eine Kombination sein, je nach Anwendungsfall.“
Isabelle Sonnenfeld – Prävention und mentale Antikörper gegen Desinformation
Isabelle Sonnenfeld, Head of EMEA, News Lab @Google, zeigte, wie ein global agierender Informations-Konzern gezielter Desinformation entgegentritt, und welche Entwicklungen zukünftig dabei helfen können. Eine Möglichkeit ist, Usern zusätzliche Werkzeuge an die Hand zu geben, um mehr Kontext bei der Websuche zu erhalten und sie dadurch zu weiterer Quellenrecherche zu befähigen. Auch eine eigene Suche für Faktenchecks – der Fact Check Explorer – kann unterstützen. Das gilt auch für medienbasierte Fehlinformation, also Bilder, die gezielt aus dem Kontext genommen und verwendet werden. Mit dem Prebunking stellte Isabelle Sonnenfeld eine Kommunikationstechnik vor, die auf die Ausbildung mentaler Antikörper gegen Desinformation abzielt. Es gehe darum, wie man Menschen im Vorfeld resilienter machen kann, bevor diese irreführende Informationen auf ihre Handys gespielt bekommen, erklärte Isabelle Sonnenfeld. Userinnen und User erfahren damit die Wirkweise von Manipulationstechniken, lernen, sie zu erkennen, um darauf reagieren zu können.
Hans Brorsen – Qualitätsnachrichten erkennen
Hans Brorsen, Co-Gründer und Co-CEO valid.tech, schloss den dritten Vortragsteil mit seinem Impuls zu vertrauenswürdigen Nachrichten und wie sich Qualitätsnachrichten plattformübergreifend erkennen lassen. Per App können Journalistinnen und Journalisten ihre Artikel vor dem Publizieren kryptografisch signieren und auf die Blockchain schreiben lassen – herausgebendes Medium und Autorin / Autor sind somit hinterlegt. Manipulationen an den Metadaten werden damit unmöglich. Auf diese Weise ist die Verifikation in allen ausgespielten Kanälen abrufbar sowie rückwirkend überprüfbar.
Bessere Medienkompetenz und Factchecking-Tools gegen Desinformation
In der abschließenden Diskussion wurde deutlich, wie vielfältig die in Desinformationskampagnen verwendeten Systeme und Vorgehensweisen sein können. Die Maßnahmen zur Gegenwehr sind es auch. Die Forderung nach mehr Medienkompetenz wurde als wichtiges Handwerkszeug für eine wachsende Resilienz gegenüber Desinformation mehrfach benannt.
acatech Präsident Jan Wörner betonte in seinem Schlusswort die Vielzahl an Herausforderungen und Gegenmaßnahmen. Er freute sich über die breite Diskussion, angefangen bei den Begrifflichkeiten bis hin zu KI-gestützten Mitteln der Gegenwehr. „Denn genau das ist es, was wir als acatech können – die ganze Bandbreite aufspannen“.
Weiterführende Informationen
- Programm der Themenkonferenz
- Arbeitskreis Technik und Gesellschaft
- Themennetzwerk Sicherheit
- Buch: Gefühlte Wahrheiten
Orientierung in Zeiten postfaktischer Verunsicherung
von Ortwin Renn - Terminhinweis: Künstliche Intelligenz verbessert Gesellschaft?!