Wie regeln wir die Zusammenarbeit von Mensch und Maschine? acatech am Dienstag zu Gast in Würzburg
Würzburg, 23. Juli 2024
Nicht erst durch den Einsatz von Künstlicher Intelligenz (KI) gewinnen Roboter und Maschinen fortlaufend an Eigenständigkeit und arbeiten in vielen Bereichen eng und effizient mit dem Menschen zusammen: Kooperierende Industrieroboter, Haushaltshelfer oder (teilweise) selbstfahrende Autos und so genannte Mixed Reality Umgebungen. Welche neuen Kompetenzen werden bei Anwenderinnen und Anwendern nötig? Wie kann die Haftung beim Einsatz von KI rechtlich geregelt werden? Diese und weitere Fragen diskutierte acatech am Dienstag am 16. Juli in Würzburg, das diesmal in Kooperation mit der Volkshochschule Würzburg & Umgebung und der Bayerischen Landeszentrale für Politische Bildungsarbeit stattfand.
Rechtswissenschaftler und acatech Mitglied Eric Hilgendorf, der seit 2010 die Forschungsstelle RoboRecht an der Universität Würzburg leitet, eröffnete die Veranstaltung mit einem umfassenden Überblick über die rechtlichen und ethischen Herausforderungen von KI. Er betonte, dass KI bereits in vielen Lebensbereichen Einzug hält – von Kommunikation und Mobilität bis hin zu Medizin und Justiz. Mit diesen Einsatzmöglichkeiten seien unterschiedliche Chancen und Risiken verbunden. Besonders hoch bewertete Eric Hilgendorf die Risiken durch Fehlfunktionen, beispielsweise beim KI-Einsatz in der Kritischen Infrastruktur oder durch Cyberangriffe. Auch mahnte er die Gefahr von Monopolbildung und (neuen) Abhängigkeiten an, die jetzt schon zahlreiche Bereiche des digitalen Lebens betreffen. Zwar erfolge die Entwicklung Lernender Systeme heute auf Basis und unter Kontrolle von geltendem Recht und ethischen Grundsätzen, doch gelte es, diese Grundlage durch rechtliche Regelungen zu ergänzen.
Weiter verdeutlichte Eric Hilgendorf, welche Merkmale in die Entwicklung rechtlicher Richtlinien eingehen sollten an Beispielen wie dem „Aschaffenburger Fall“ zum autonomen Fahren und dem lernfähigen Kommunikationssystem „Tay“. Dieses verbessert seine Kommunikationsfähigkeiten durch Kontakte mit Menschen. Eine Manipulation führte jedoch zu frauenfeindlichen und rassistischen Äußerungen. Anhand eines fiktiven Falls schwerwiegender Beleidigung durch „Tay“ erläuterte er die Herausforderungen zivil- und strafrechtlicher Haftung. Sollten KI-Systeme eine eigene Rechtspersönlichkeit erhalten, um in solchen Fällen zivilrechtlich zu Schadensersatz verpflichtet werden zu können? Denn Prozesse gegen die dahinterstehenden Unternehmen seien langwierig und kostenintensiv. Bereits 2017 habe es daher eine Initiative des EU-Parlaments zur Einrichtung einer E-Person gegeben. Folglich könnten rechtliche Regelungen für zivilrechtliche Haftung getroffen werden, eine strafrechtliche Haftung sei dagegen wegen der entsprechenden Rechtstheorien nicht möglich, so Eric Hilgendorf in seinem Fazit.
Jessica Heesen, Mitglied Plattform Lernende Systeme, leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen. Sie ging in ihrem Kurzstatement auf den Einfluss von KI auf die Arbeitswelt ein. Jessica Hessen schilderte dabei mehrere Beispiele, wie die Unterstützung durch KI sich positiv auswirken kann. So könne Inklusion am Arbeitsplatz gestärkt werden, indem dort beispielsweise Text-to-Speech-Systeme die Mitarbeit beeinträchtigter Personen erleichtern. Oder im medizinischen Bereich: Hier würden Ärztinnen und Ärzte mehr Zeit für den persönlichen Patientenkontakt haben, wenn Arztbriefe automatisiert erstellt würden.
Auf der anderen Seite verursache KI aber auch versteckte Arbeit, zum Beispiel, weil die Trainingsdaten für KI-Systeme oftmals noch durch Menschen aufbereitet und zur Verfügung gestellt werden müssen. Ferner berge KI das Potenzial zur Diskriminierung – zum Beispiel in einem Bewerbungsprozess, bei dem eine Person aufgrund bestimmter Merkmale aussortiert wird, weil der zugrundeliegende Trainingsdatensatz verzerrt ist. Allerdings gebe es auch positive Folgen. So könnten, bei einem Bewusstsein für ungleiche Verhältnisse innerhalb einer Gesellschaft, die Trainingsdaten so gestaltet werden, dass Unterschiede über ein KI-System ausgeglichen werden.
In der anschließenden Diskussion, moderiert von Sabrina Hüttner von der vhs Würzburg & Umgebung, ging es zunächst nochmal um die rechtlichen Rahmenbedingungen. Dabei betonte Eric Hilgendorf die Bedeutung der digitalen Souveränität und warnte erneut vor einer Abhängigkeit von US-kontrollierten KI-Systemen. Er verwies dabei auf den „Brussels Effect“: Es zeige sich immer wieder, dass EU-Regulierungen, wie zum Beispiel der AI Act, weltweit Einfluss haben und Regulierung global beeinflussen. Jedoch brauche es dazu eine starke EU.
Zum anderen interessierte die Teilnehmenden, welche Kompetenzen im Umgang mit lernenden Systemen jetzt und in Zukunft erforderlich seien. Für alle sei, wie Jessica Heesen hervorhob, auf jeden Fall eine Stärkung der persönlichen Kompetenzen notwendig – in Verbindung mit einer klaren Kennzeichnung und Transparenz zum Einsatz von KI. Auch seien vertrauenswürdige Institutionen als Mittler nötig, um Bildungsabhängigkeiten nicht weiter zu verstärken. Insbesondere im Hinblick auf eine angestrebte menschliche Letztentscheidung, wie es der AI Act der EU vorsieht, sei eine Befähigung der Menschen zentral – wie das in der Praxis gelingen kann, sei allerdings noch offen.