Neues Dialogforum für München: Beim Auftakt der Reihe „TechTalk 28/4“ stand das Thema KI und Desinformation im Mittelpunkt
München, 8. November 2024
Desinformation bedroht den gesellschaftlichen Diskurs – und zwar in immer größerem Ausmaß. Schuld daran sind die fortschreitende Digitalisierung der Öffentlichkeit und die rasante Entwicklung im Bereich der Künstlichen Intelligenz (KI). Wie sorgen wir in Zukunft für valide und vielfältige Informationen, um eine ausgewogene öffentliche Meinungsbildung zu unterstützen – und welche Rolle spielt KI dabei? Wie lassen sich KI-generierte Medieninhalte am besten identifizieren? Diese Fragen diskutierten Experten mit dem Publikum beim Auftakt des Dialogformats „TechTalk 28/4“ am 5. November an der Münchner Volkshochschule.
Zum Einstieg sollten die Teilnehmerinnen und Teilnehmer in Kleingruppen anhand von Fotos entscheiden, ob es sich um „reale“ Aufnahmen oder um KI-generierte Fakes handelt. Der Blick auf Details – Finger, Symmetrie der Augen, Haarspitzen – war in manchen Fällen der Schlüssel für eine Zuordnung zu echt oder KI-generiert. Martin Bimmer (acatech Geschäftsstelle) moderierte die Diskussionen an den Tischen und löste die Unklarheiten auf.
Einig waren sich die Fachleute, dass demnächst (vielleicht handelt es sich hier nur um Wochen oder Monate) solche Ungenauigkeiten in KI-generierten Bildern nicht mehr vorkommen werden – zu erkennen, ob ein Bild echt oder unecht ist, dürfte also immer schwieriger werden.
Nutzung von KI im Journalismus
René Heuser (Head of AI, Ippen Digital) betonte im anschließenden Impuls, dass KI kein Akteur sei, sondern gerade im Journalismus ein Werkzeug mit vielfältigen Anwendungsmöglichkeiten.
Künstliche Intelligenz komme in Redaktionen inzwischen bei der Recherche, dem Fact-Checking oder bei der Sichtung von Materialien zum Einsatz. Große Datenmengen lassen sich nun in kurzer Zeit auswerten und auf Zusammenhänge hin untersuchen, wie es beispielsweise bereits bei den Panama-Papers geschehen ist. Auch bei der Verifikation von Bildern, Videos und Tonaufnahmen sei KI hilfreich. Denn bei Berichten über Krisen oder Kriegsgeschehen sei schon immer manipuliert worden – allerdings würden die Fälschungen immer besser. Diese schnell und verlässlich zu erkennen, sei heute eine sehr wichtige Aufgabe der Medien, so René Heuser. Bei Ippen Digital werde KI zudem bereits eingesetzt, um Kommentare automatisch zu moderieren und so Hate Speech, Spam und Scam von Webseiten zu entfernen und so einen konstruktiven Meinungsaustausch zu fördern. Dennoch gelte weiterhin das Prinzip „human in the loop“: Alle von einer KI derart klassifizierten Inhalte werden von einem Redakteur oder einer Redakteurin nochmal gegengecheckt. Dies erfordere auch eine fortlaufende Schulung der daran beteiligten Personen.
Wie KI enttarnen?
Nicolas Müller (Fraunhofer-Institut für Angewandte und Integrierte Sicherheit) führte in seinem Vortrag anhand von Beispielen vor, wie täuschend echt KI-Fälschungen auch im Bereich Audio und Video heute schon sind. Besonders eindrucksvoll sind Fälschungs-Tools, die auf Basis kurzer Aufnahmen vollständige Stimmprofile erstellen und so die Wiedergabe beliebiger Texte mit dieser Stimme ermöglichen. Frei zugängliche Programme wie „FakeYou“ oder „ElevenLabs“ erfreuen sich bereits großer Beliebtheit.
Damit Menschen nicht auf KI-generierte Inhalte hereinfallen, ist es aus Nicolas Müllers Sicht wichtig, die Medienkompetenz weiter zu steigern, Tools zur Deepfake-Erkennung zu etablieren und Signaturverfahren zu entwickeln. Selbstverständlich müsse man sich hierbei stets am aktuellen Stand der KI orientieren und mit technischen Entwicklungen Schritt halten. Einige Werkzeuge stellt auch das Fraunhofer AISEC frei zugänglich bereit, um Deepfakes identifizieren zu können. Mit „Deepfake Total“ lassen sich beispielsweise Audioaufnahmen auf Echtheit hin überprüfen.
Abschließend ging Nicolas Müller noch auf ein positives Beispiel für Audio-Deepfakes ein: Mit Hilfe von KI-Software können sich Personen, die beispielsweise nach einem Schlaganfall unter stimmlichen und sprachlichen Beeinträchtigungen leiden, wieder artikulieren. Entsprechend müsse zwischen einem gutwilligen und einem böswilligen Einsatz von Deepfakes unterschieden werden.
Ein neues Dialogformat in München
Technik und Innovation können Wohlstand bringen und gesellschaftliche Probleme lösen. Aber wie entstehen aus Grundlagenforschung brauchbare Technologien? Vor welche ungeahnten Herausforderungen stellen uns neue Technologien? Wie sieht der Weg von der Idee zum wettbewerbsfähigen Unternehmen aus? Die Reihe „TechTalk 28/4“ schafft ein Forum für alle Münchnerinnen und Münchner, um mit Fachleuten aus Wissenschaft und Wirtschaft Debatten über Technik und Gesellschaft zu führen. Veranstaltet werden die TechTalks von der Münchner Volkshochschule (MVHS) zusammen mit acatech und der Mediengruppe Münchner Merkur, tz.
Hinter der Zahlenkombination „28/4“ verbergen sich die Hausnummern der Orte, an denen die Dialogveranstaltungen stattfinden: abwechselnd bei der Münchner Volkshochschule in der Einsteinstraße 28 und bei acatech am Karolinenplatz 4. Die Assoziation mit der Formel „24/7“ ist beabsichtigt: die aktuellen und kontroversen Technikthemen, die bei den Veranstatungen im Mittelpunkt stehen, betreffen uns alle – und zwar rund um die Uhr. Die Auftaktveranstaltung moderierte Lydia Weinberger (Fachgebietsleiterin Naturwissenschaften, Münchner Volkshochschule).
Was geht mich das ganze an? Was kann ich tun?
Nach den Vorträgen kamen die Teilnehmenden nochmal mit den Experten an den Tischen zusammen. Dabei wurden jeweils vier Fragen diskutiert:
- KI & Desinformation: Betrifft Sie das Thema?
- Haben Sie vertrauenswürdige Informationsquellen? Wieso vertrauen Sie diesen?
- Was könnte helfen, vor Desinformation zu schützen?
- Einsatz von KI in den Medien: Chance oder Risiko?
Deutlich wurde, dass das Problem der Desinformation keinesfalls neu ist. Durch KI werde es freilich verschärft. Parallel zur rasanten Entwicklung von Fälschungsanwendungen läuft das Wettrüsten um IT-Sicherheit. So waren sich die Experten einig, dass ein kritischer Umgang mit Informationen und Quellen weiterhin eine wichtige Kompetenz sei.
Intensiv wurde an den Tischen das Thema Vertrauen diskutiert: Braucht es prinzipiell einen Vertrauensvorschuss (gegenüber wem und welchen Informationsquellen?) Oder sollte man einfach immer kritisch bleiben (lässt sich das überhaupt bewerkstelligen)? Ist man nur auf der sicheren Seite, wenn man jede Information und Quelle selbst gegencheckt? Und kann man die Zeit dafür überhaupt aufbringen?
Weiterführende Informationen
„Quiz: Fakt oder Fake?“ der Plattform Lernende Systeme – Die Plattform für Künstliche Intelligenz