Grundfragen der KI – Perspektiven aus Forschung und Praxis
Berlin, 16. Oktober 2024
Viele KI-Systeme werden zurecht als epistemisch opak bezeichnet – es bleibt mitunter intransparent, wie deren Ergebnisse zustande kommen. Gleichzeitig sind KI-Systeme und deren Ergebnisse zunehmend mit normativen Konsequenzen verbunden, wenn sie etwa in der Rechtsprechung, bei Fragen auf Leben und Tod und im Militär Anwendung finden. Es wird deshalb Zeit, Grundfragen der KI zu stellen und auf die Verantwortung in Entwicklung und Anwendung hinzuweisen. Das haben Fachleute auf der acatech Themenkonferenz am 16. Oktober in Berlin gemeinsam getan. Die Konferenz wurde vom Arbeitskreis Grundfragen der Technikwissenschaften vorbereitet.
Höchste Zeit, Grundfragen der KI zu stellen
Die rasche Entwicklung und Popularisierung Künstlicher Intelligenz befeuert vielfältige öffentliche wie fachliche Diskussionen: Können Maschinen echte Empathie entwickeln? Kann KI Neugier, Motivation zum Handeln und holistische Reflexion erlangen, also im menschlichen Sinne intelligent werden? Aus fachlicher Sicht ist eher die Frage, welche Vorstellungen der Begriff „Künstliche Intelligenz“ provoziert, warum man der KI inzwischen Empathie zuschreiben mag und welche Konsequenzen das haben kann.
Einführung
Andrea Martin (IBM Watson Center Munich) und Martin Wegele (IBM Berlin) begrüßen die Teilnehmerinnen und Teilnehmer. Martin Wegele stellt mit Blick auf das gastgebende Unternehmen Motive der Beständigkeit und des Wandels in den Mittelpunkt: Von der Lochkartenproduktion über die ersten Computer und Rechenzentren bis in die aktuellen Entwicklungen ist IBM beständig in Berlin aktiv, heute mit rund 1.000 Beschäftigten. Als besonderen Schwerpunkt der aktuellen Forschung und Entwicklung des Unternehmens hebt er Quantencomputing hervor.
acatech Präsident Jan Wörner stellt die Plattform Lernende Systeme vor, die er an der Seite von Forschungsministerin Bettina Stark-Watzinger leitet. Er schließt eine Beobachtung an: In innovationspolitischen Debatten häufen sich „Zauberworte“ wie „komplex“, „strategisch“, „historisch“, aber auch „Fusion“ und „Künstliche Intelligenz“. Sie werden ebenso häufig wie unscharf verwendet. Deshalb bleiben auch Debatten über Chancen und Risiken unscharf: Deepfakes mittels KI beispielsweise seien ein Risiko, aber kein neues. Manipulierte Fotos oder auch die vermeintlichen Hitler-Tagebücher seien historische Beispiele von Deepfakes – ganz ohne KI. Es sei wichtig Chancen und Risiken nüchtern und auf dem Stand des Wissens zu betrachten und KI da zu nutzen, wo sie wirklich helfe.
Klaus Mainzer (TUM Emeritus of Excellence) eröffnet die Podien der Konferenz als Sprecher des acatech Arbeitskreises „Grundfragen der Technikwissenschaften“. Die Themenkonferenz werde an den technologischen und theoretischen Grundlagen von KI ansetzen, um dann über industrielle Anwendungen sowie Fragen der Kompetenzentwicklung schließlich auf Fragen rund um KI und Verantwortung zu kommen. Er zeigt wesentliche Entwicklungsschritte der KI auf – von der Idee des Turing-Tests 1950 über Logiksysteme symbolischer KI, Sensorsysteme subsymbolischer KI bis hin zu hybriden kognitiven Systemen, wie sie Robotern und autonomen Systemen zugrunde liegen. Ein zentrales Thema sei heute die Hardware – nun auch im Zusammenhang mit dem Energieverbrauch, denn KI sei bereits ein großer Energiefresser: Neuromorphe Systeme und Quantencomputer sind hier die Stichworte für mögliche Weiterentwicklungen, um trotz zunehmender Rechenkapazität energieeffizient zu arbeiten. KI stecke in einem wachsenden Internet der Dinge – in so verschiedenen Bereichen wie Gesundheit, Smart City, Industrie 4.0, aber auch Sicherheit und Militär. Auf diese Welt müsse sich die Gesellschaft vorbereiten und ihr einen rechtlichen, ethischen und regulativen Rahmen geben.
Grundlagen und Technologie
Wer sich mit Fragen nach Segen und Fluch von KI beschäftigt, stößt zwangsläufig auf die Frage nach den Qualitäten, die Menschsein und menschliches Miteinander ausmachen, so die Eingangsthese von Elisabeth André (Universität Augsburg). Einige solcher Qualitäten können KI-Systeme bereits verblüffend glaubhaft simulieren, etwa die sprachliche Schlagfertigkeit generativer KI-Systeme, auf nahezu jeden Prompt eine halbwegs passende Antwort zu liefern. Spannend werde es an der Schwelle von bloßer Simulation zu autonom agierenden Systemen, so André. Auf der einen Seite werden Maschinen als Werkzeuge betrachtet. Auf der anderen Seite treten zunehmend autonome Systeme den Menschen als sozial-interaktive Akteure entgegen und lassen die Grenze zwischen Mensch und Maschine verschwinden.
Andreas Dengel (RPTU Kaiserslautern-Landau, Deutsches Forschungszentrum für Künstliche Intelligenz) fragte: Kann KI Neugier, Motivation zum Handeln und holistische Reflexion erlangen? All diese inneren Prozesse seien bei Menschen Grundlage jeden Könnens und Handelns. Er betont, dass KI-Systeme, deren Ergebnisse letztlich auf Statistik beruhen, keine menschliche Intelligenz in diesem umfassenden Sinne erlangen können. Darüber hinaus zeichne menschliche Intelligenz ein Verständnis von Kontexten, aber auch eine Verbindung von Geist und Körperlichkeit aus, was beides KI-Systemen weitgehend fehle. In diesem Sinne greifen Analogien zwischen menschlicher und künstlicher Intelligenz zu kurz.
Andreas Kaminski (TU Darmstadt) gab der Tagung drei Gedanken mit auf den Weg: Erstens führen komplexe KI-Modelle zu einer Opazität. Wie KI-Modelle Ergebnisse – seien es richtige oder fehlerhafte – hervorbringen, lasse sich nur unvollständig nachvollziehen. Dies liege schon in der Arbeitsweise selbstlernender KI-Systeme begründet. Zweitens verändere diese Opazität das Verhalten von Menschen. Das gewisse Eigenleben von KI-Systemen könne auch verunsichern: In automatisierten Fahrzeugen etwa sei Menschen nicht immer klar, ob sie oder KI ein Lenkmanöver ausgelöst haben, was zu Unsicherheiten führt. Drittens, so seine These, werden – trotz der Opazität – Auseinandersetzungen um die politische Gestaltung von KI zunehmen.
Ulf Schlichtmann (TU München) sprach über Ansätze, durch KI Computerchips besser zu machen, um dann mittels besserer Chips wiederum KI weiterzuentwickeln. KI wurde anfangs durch klassische CPUs und wird heute weitgehend durch GPUs berechnet, die eigentlich für Grafikkarten gedacht waren. Auch dies sei aber keine optimale Architektur. Gerade mit Blick auf den Energieverbrauch müsse sich dies ändern. Als dritten Punkt seines Impulses machte er die Relevanz von Co-Kreation deutlich. Beispielsweise erfordern die Modell- und Hardwareentwicklung in der KI sehr unterschiedliche Ausbildungen und Kompetenzen – beide müssen aber in der Weiterentwicklung der KI viel enger zusammenarbeiten.
Industrie & Anwendung
Die Zeiten seien vorbei, als einzelne Unternehmen alles selbst gemacht haben – KI zwinge zu Kooperation. So fasst Holger Röder (TRUMPF SE + Co. KG) eine zentrale Herausforderung zusammen, vor der die Wirtschaft heute steht. Diese Veränderung erfordere einen Wandel in der Mentalität. Man müsse Informationen teilen, um mit Partnern auch in der realen Welt gemeinsam voranzugehen. Die KI-basierte Datenökonomie werfe neue Fragen auf, etwa nach dem Domänenwissen, nach Datenhoheit, nach dem Einfluss eines solchen Schrittes auf die Wettbewerbsfähigkeit.
Julia Arlinghaus (Fraunhofer IFF) moderiert das Panel und bestätigt diese Beobachtung. In ihren Gesprächen mit kleinen und mittelgroßen Unternehmen werde sie oft nach Zahlen gefragt. Welches Effizienzpotential und welche Kostenersparnis bietet die Implementierung von KI-Tools und -Systemen genau? Darauf gebe es nur eine Antwort: „Das kommt darauf an.“ Es hängt zum einen ab von den Gegebenheiten im jeweiligen Unternehmen, etwa dem konkreten Anwendungsfall, den jeweiligen Maschinen, Daten und Prozessen. Wo Prozesse schon effizient und digitalisiert sind, lassen sich vielleicht etwas geringere Verbesserungen durch KI erzielen. Andererseits sei dort eine effiziente Nutzung von KI einfacher erreichbar. Zum anderen komme es sehr stark auf die Bereitschaft und Befähigung der Menschen an, mit KI zu arbeiten.
Andrea Martin (IBM Watson Center Munich) empfiehlt, den Unternehmen zumindest eine Größenordnung für mögliche Effektivitätssteigerung zu geben, also etwa: Es gehe nicht um drei Prozent, sondern es gehe in Richtung 30 Prozent. Sie weist darauf hin, dass sich jedes Unternehmen bei der Implementierung und Entwicklung von KI-Tools auch darum kümmern müsse, dass KI nicht diskriminiert. Ist der Datensatz ausbalanciert? Das müsse fortlaufend kontrolliert werden, da sich bei KI-Systemen Verzerrungen auch im Laufe der Zeit einschleichen können.
Wolfgang Ecker (Infineon Technologies AG, TU München) stellt heraus, dass Mitarbeitende von Anfang an miteinbezogen werden müssen. Mit KI mehr schaffen: Dies müsse im Vordergrund stehen, nicht die Einsparung von Arbeitsplätzen. Mitarbeitende müssen nicht zu KI-Experten werden, um von KI-Systemen unterstützt zu werden. Neugierde und die Bereitschaft, Neues auszuprobieren seien die wichtigsten positiven Voraussetzungen. Es dürfe keine Angst aufkommen, sich selbst wegzurationalisieren. Das mache einen großen Unterschied aus.
Kompetenzentwicklung in Bildung und Ausbildung
Die digitale Dominanz unserer Zeit zeige sich in der zentralen Rolle von Daten, eröffnete Stefania Centrone (TU München) ihren Beitrag. Um damit verbundene Verantwortungsfragen zu lösen, brauche es ein Verständnis der theoretischen Grundlagen. Es reiche nicht, so die theoretische Philosophin, KI-basierte Technologien anzuwenden und zu beherrschen – es sei nötig, ihre Prinzipien zu verstehen. Dieses Verständnis müsse Teil jeder KI-bezogenen Ausbildung und sogar der generellen Erwachsenenbildung sein. Dafür seien offene Bildungseinrichtungen unabdingbar, die mit neuen technologischen Entwicklungen Schritt halten können.
Alle Menschen brauchen KI-Kompetenzen, bestätigt Ute Schmid (Universität Bamberg), also ein grundlegendes Verständnis von Algorithmen und KI-Architekturen. Dies würde auch der problematischen Vermenschlichung von KI entgegenwirken. KI-Kompetenzen steigern zugleich die Resilienz gegenüber Deepfakes und Populismus. KI-Fachkräfte wiederum benötigen insbesondere Daten- und Statistikkompetenzen – denn sie müssen verstehen, was ihre KI-Systeme genau messen und verarbeiten. Besonders problematisch sei der unbedachte Einsatz von Predictive Analytics, beispielsweise in Schulen zur Vorhersage von Lernfortschritten. Diese Prognosen können im Sinne selbst-erfüllender Vorhersagen die Realität auch negativ beeinflussen.
Verantwortung
Wenn zwei Menschen zusammenarbeiten, wird die Verantwortung entweder gemeinsam getragen oder in Verantwortungsbereiche aufgeteilt. Doch wie steht es – so fragt Moderator Michael Decker (KIT) – mit der Kooperation zwischen Mensch und Maschine? Naheliegend sei der Gedanke, dass hier immer der Mensch die Verantwortung trage. In der Praxis sei das aber nicht immer einfach: Manchmal hat ein KI-System viel mehr Informationen als der Mensch. Manchmal treffen KI-Systeme Entscheidungen außerhalb des menschlichen Erwartungshorizontes. Das könne in manchen Zusammenhängen positiv sein – etwa wenn KI-Systeme in Spielen wie Schach oder Go mit unerwarteten Spielzügen gewinnen. Denn hier gibt es ein klar umrissenes Regelsystem. In anderen Bereichen jedoch können unerwartete Ergebnisse unerwünscht, ohne Anschlussfähigkeit oder sogar gefährlich sein.
Klaus Vieweg (FAU Erlangen-Nürnberg) erläuterte zunächst die europäische KI-Verordnung (AI Act) – die erste Regulierung der KI, die unter anderem versucht, das Spannungsverhältnis zwischen Regelungsbedarf und Vermeidung von Innovationsblockaden auszutarieren. Ein neuer Ansatz, denn traditionelle Technikregulierung sei durch einen „legal lag“ gekennzeichnet. Mit erheblichem zeitlichem Abstand folge die rechtliche Regelung der technischen Entwicklung und deren Anwendung mit entsprechenden Geschäftsmodellen nach. Die besondere Dynamik der KI-Entwicklung und deren für die Akzeptanz erforderliche Vertrauenswürdigkeit erschwere die unverzichtbare Lösung immer vorhandener Zielkonflikte. Nicht nur Sicherheit, Qualität, Wirtschaftlichkeit und Umweltverträglichkeit seien gegeneinander abzuwägen. Hinzu kämen die „Werte der EU“ und ethische Prinzipien. Die Frage sei nun auch: Wie ethisch ist ethisch genug?
Wie lassen sich KI-Systeme und ihre Qualität überprüfen? Maximilian Poretschkin (Fraunhofer IAIS) erläutert zwei grundsätzliche Stoßrichtungen: Erstens die Prozessprüfung und zweitens die technische Prüfung des Systems. Für den ersten Fall könne man sich an den Normen des Qualitätsmanagements orientieren und ein KI-Management-System entwickeln. Der zweite Fall sei schwieriger: KI unterscheide sich von herkömmlicher Software. Aus großen Datensätzen soll die KI eine gewünschte Spezifikation erlernen. Es sei aber schwierig, systematisch zu überprüfen, was und wie genau KI-Systeme aus diesen Trainingsdaten gelernt haben – und ob beziehungsweise warum dabei Fehler entstanden sind. Die Entwicklung solcher Prüfverfahren sei ein wichtiges Forschungsthema.
Johannes Wallacher (Hochschule für Philosophie München) fragt, wie Verantwortung und Vertrauen in Mensch-Maschine-Interaktionen entstehen können. Verantwortungskonzepte dürfen nach seinen Worten nicht am Ende ansetzen, als TÜV oder Reparaturwerkstatt. Verantwortung und Vertrauen müssen Teil des Entwicklungsprozesses sein. Klar spricht er sich für eine enge und frühzeitige Integration theoretischer und ethischer Expertise in die Entwicklung Künstlicher Intelligenz aus.
Schlussbemerkungen
Die Idee hinter der Themenkonferenz sei gewesen, die besonderen Stärken von acatech einzubringen, begann Armin Grunwald sein Fazit. Dank der Verbindung von Wissenschaft und Wirtschaft konnte die Themenkonferenz von theoretischen Grundlagen ausgehend Anwendungen beleuchten, um darauf aufbauend Verantwortungsfragen zu erörtern. Armin Grunwald (KIT) warnt, KI allein als Werkzeug zu betrachten und erinnerte an einen bekannten Vergleich: Wer einen Hammer in der Hand hält, der suche auch Nägel. Technik sei nicht wertneutral, sie lasse die Welt in einem neuen Licht erscheinen. So lädt auch KI zur Nutzung ein und beeinflusst, was wir wollen und tun. Zu schnelles Vertrauen, Datengläubigkeit, Scheinobjektivität seien naheliegende Einflüsse. Ebenso löse der Umgang mit KI fälschliche Zuschreibungen von Emotionen oder Intentionen aus. Wir nehmen, so Armin Grunwald, diese neuen Wesen quasi in unsere menschliche Gemeinschaft auf. Nicht die KI sei an sich problematisch. Problematisch werden könne eine bestimmte Art der Entwicklung und Nutzung. Wir mögen, so schloss Armin Grunwald, mit einem Finger auf die KI zeigen, aber die anderen Finger der Hand verweisen auf uns zurück.
Klaus Mainzer moderiert und erinnert in seinem Schlusswort an den Kantschen Begriff der Urteilskraft. Es gelte, eigene mentale Fähigkeiten und „kognitive Muskeln“ in der Nutzung von KI nicht zu vernachlässigen. Er erinnerte an die Philosopnie der Aufklärung, die den Mut einforderte, den eigenen Verstand zu nutzen. Dieser Aufruf bleibe aktuell, auch und besonders mit Blick auf die Gestaltung von KI.
Impressionen von der Veranstaltung
Fotos: acatech