ChatGPT und Sprachmodelle: Was verändert die neue KI-Generation?
München, 10. Februar 2023
Das Sprachmodell ChatGPT hat Künstliche Intelligenz (KI) in den Fokus der Öffentlichkeit gerückt. Der Text-Bot ist Teil einer neuen Generation von KI-Systemen, die Texte verfasst, Bilder und Videos erzeugt oder Codes programmiert. Ob in Unternehmen, der Medizin oder der Medienwelt – die Einsatzmöglichkeiten sogenannter großer Sprachmodelle sind vielfältig. Welchen technologischen Fortschritt sie versprechen, wo ihre Potenziale für Wirtschaft und Gesellschaft liegen und welche ethischen und rechtlichen Herausforderungen mit ihrem Einsatz verbunden sind, diskutieren Expertinnen und Experten der Plattform Lernende Systeme im neuen Webformat „Perspektiven auf KI“.
Große Sprachmodelle wie ChatGPT sind KI-Modelle, die mithilfe von Methoden des maschinellen Lernens mit extrem großen Mengen an Texten von Webseiten oder online verfügbaren Büchern trainiert wurden. Auf diese Weise können sie komplexe Fragen ausführlich beantworten. Sprachassistenten, Textgeneratoren oder Übersetzungssysteme sind Beispiele für große Sprachmodelle. „Auch wenn die Systeme gelegentlich noch fehlerhafte Antworten geben oder Fragen nicht richtig verstehen – die technischen Erfolge, die hier erreicht wurden, sind phänomenal. Mit ihnen hat die KI-Forschung einen wesentlichen Meilenstein auf dem Weg zu einer echten Künstlichen Intelligenz erreicht“, sagt Volker Tresp, Professor für Maschinelles Lernen an der Ludwig-Maximilians-Universität München.
Große Sprachmodelle werden in den nächsten Jahren den Umgang mit Information und Wissen in Gesellschaft, Wissenschaft und Wirtschaft wesentlich verändern. Sie können Suchmaschinen verbessern, Ärztinnen und Ärzten Vorschläge für die Diagnose und Behandlung von Krankheiten machen, Journalistinnen und Journalisten bei Recherchen unterstützen, Kundenanfragen beantworten oder Arbeitsverträge verfassen. Johannes Hoffart, Chief Technology Officer der AI Unit bei SAP, sieht gerade für Unternehmen großes Potenzial: „Was mich besonders begeistert: Große Sprachmodelle mit anderen Daten zu kombinieren, beispielsweise Datenbanken und Tabellen. So kann die Arbeit mit Geschäftsdaten im Arbeitsalltag weiter vereinfacht werden und digitale Assistenten werden Realität.“
Ethische und rechtliche Herausforderungen
Mit dem Einsatz von Sprachmodellen sind jedoch eine Vielzahl ethischer und rechtlicher Herausforderungen verbunden: Die Ergebnisse eines Sprachmodells können etwa Vorurteile in den zugrunde liegenden Daten übernehmen und sogar verstärken. „Sprachmodelle werden der Gesellschaft den Spiegel vorhalten und – wie auch schon bei Social Media – verzerrend, aber eben doch entlarvend, gesellschaftliche Brüche und Spaltungen aufdecken und verstärken können“, sagt Peter Dabrock, Ethikprofessor der Friedrich-Alexander-Universität Erlangen-Nürnberg. Die Diskriminierung zu minimieren, sei eine der größten technischen sowie organisatorischen Aufgaben für die nahe Zukunft.
Große Sprachmodelle können selbstständig Nachrichten verfassen, Untertitel zu Videobeiträgen erzeugen – oder missbräuchlich für Deep Fakes genutzt werden. Beim Einsatz in der Medienwelt gilt es zu berücksichtigen, inwieweit KI-Systeme die offene Meinungsbildung beeinflussen können. „Eine Demokratie-Simulation, die uns als Bürgerinnen und Bürger das Informieren, Reflektieren, Diskutieren, Mobilisieren und Mitbestimmen abnimmt, wäre das Ende von Selbstbestimmung und Mündigkeit in der Demokratie“, warnt Christoph Neuberger, Direktor des Weizenbaum-Instituts. „Daher ist das Maßhalten beim Einsatz von großen Sprachmodellen das Gebot, das hier und in anderen Einsatzfeldern beachtet werden sollte.“
Die synthetischen Texte oder Bilder werfen auch rechtliche Fragen auf. Mangels schöpferischer Fähigkeiten komme eine KI-Urheberschaft nicht in Betracht, sagt Anne Lauber-Rönsberg, Rechtsprofessorin der Technischen Universität Dresden. „Wenn allerdings KI-Erzeugnisse zum Standard werden und gleichwertige menschliche Leistungen als alltäglich wahrgenommen werden, so wird dies dazu führen, dass die Originalitätsanforderungen, die für einen urheberrechtlichen Schutz erfüllt werden müssen, in der Rechtsprechungspraxis zunehmen werden.“
Verantwortliche Gestaltung großer Sprachmodelle
Große Sprachmodelle und KI-Systeme im Allgemeinen müssen verantwortungsvoll entwickelt und eingesetzt werden. In sensiblen Bereichen werde es immer notwendig sein wird, dass der Mensch die Ergebnisse des Sprachmodells kontrolliert und letztlich eine Entscheidung fällt, so Volker Tresp. Die Expertinnen und Experten der Plattform Lernende Systeme empfehlen zudem etwa eine transparente Kennzeichnung von KI-Anwendungen sowie die Förderung von Talenten im KI-Bereich und eines kritischen Umgangs mit KI in der Bevölkerung. „Wenn wir Sprachmodelle für Anwendungen in und aus Europa nutzen wollen, brauchen wir außerdem europäische Sprachmodelle, die die hiesigen Sprachen beherrschen, die Bedürfnisse unserer Unternehmen und ethischen Anforderungen unserer Gesellschaft berücksichtigen“, sagt Tresp.
Perspektiven auf KI
In der Web-Rubrik „Perspektiven auf KI“ bewerten Expertinnen und Experten der interdisziplinär besetzten Plattform Lernende Systeme aktuelle Entwicklungen im Bereich der Künstlichen Intelligenz aus verschiedenen Blickwinkeln. Die Beiträge aller in der Pressemitteilung zitierten Mitglieder finden Sie in voller Länge unter diesem Link. Sie sind zur redaktionellen Verwendung freigegeben.