• Themen
  • Publikationen
  • Dialog
    • Zukunftsrat des Bundeskanzlers
    • Europäische Politikberatung
    • Technik & Gesellschaft
    • Öffentliche Dialogveranstaltungen
    • acatech HORIZONTE
    • Initiativen und Partner
    • Parlamentarische Veranstaltungen
    • Internationales
    • #FutureWorkDebatte
  • Transfer
  • Termine
  • Aktuelles
    • Meldungen
    • Mediathek
    • Frag acatech
    • Abonnements
    • Blog
  • Über uns
    • Wofür wir stehen
      • Leitbild
      • Leitlinien
      • Transparenz
      • Qualitätsmanagement
    • Gründungsgeschichte
    • Organisation
      • Präsidium
      • Vorstand
      • Mitglieder
      • Senat
      • Themennetzwerke
    • Geschäftsstelle
      • Kontakt zur Geschäftsstelle
      • Stellenausschreibungen
      • Standorte
    • Förderverein
  • EN
  • Themen
  • Publikationen
  • Dialog
    • Zukunftsrat des Bundeskanzlers
    • Europäische Politikberatung
    • Technik & Gesellschaft
    • Öffentliche Dialogveranstaltungen
    • acatech HORIZONTE
    • Initiativen und Partner
    • Parlamentarische Veranstaltungen
    • Internationales
    • #FutureWorkDebatte
  • Transfer
  • Termine
  • Aktuelles
    • Meldungen
    • Mediathek
    • Frag acatech
    • Abonnements
    • Blog
  • Über uns
    • Wofür wir stehen
      • Leitbild
      • Leitlinien
      • Transparenz
      • Qualitätsmanagement
    • Gründungsgeschichte
    • Organisation
      • Präsidium
      • Vorstand
      • Mitglieder
      • Senat
      • Themennetzwerke
    • Geschäftsstelle
      • Kontakt zur Geschäftsstelle
      • Stellenausschreibungen
      • Standorte
    • Förderverein
  • EN

Nachvollziehbare KI: Ergebnisse zielgruppengerecht und transparent gestalten

© iStock: janiecbros

München, 25. Juni 2025

Mit der raschen Verbreitung von Chatbots ist Künstliche Intelligenz (KI) für viele Menschen im Alltag greifbar geworden. Wie und warum ChatGPT und andere KI-basierte Systeme zu ihren Ergebnissen kommen, bleibt für die Nutzenden dabei häufig undurchsichtig. Was genau passiert in der „Black Box“ zwischen der Modelleingabe und -ausgabe? Um die Resultate und die Entscheidungsfindung komplexer KI-Systeme nachvollziehbar zu machen, müssen algorithmische Entscheidungen erklärbar sein. So lässt sich einerseits die Modellqualität verbessern und andererseits das Vertrauen in KI stärken. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt, mit welchen Methoden und Werkzeugen KI-Ergebnisse für unterschiedliche Zielgruppen nachvollziehbar gemacht werden können und vermittelt Gestaltungoptionen für Forschung, Lehre, Politik und Unternehmen.

In vielen KI-Anwendungsgebieten wie der medizinischen Diagnostik, im Auswahlverfahren bei Bewerbungen oder der Qualitätskontrolle in der Produktion ist die Nachvollziehbarkeit entscheidend, um die Ergebnisse einordnen und hinterfragen zu können. So erhalten Entwicklerinnen und Entwickler Informationen, um KI-Systeme zu verbessern, und Nutzende können in Erfahrung bringen, welche Faktoren für die Zu- oder Absage einer Bewerbung entscheidend waren.

Die Forschung zum Thema Erklärbare KI (englisch: XAI) adressiert dabei hauptsächlich zwei Bereiche: Der erste konzentriert sich auf die Verbesserung von Daten und Modellen. In der Praxis werden XAI-Methoden häufig von KI-Ingenieurinnen und -Ingenieuren verwendet, um KI-Modelle vor ihrer Implementierung zu testen und um die Qualität von KI-Modellen zu verbessern. Der zweite Bereich beschäftigt sich mit den ethischen Kriterien für verantwortungsvolle KI. Sie dienen dazu, den Nutzenden Erklärungen zu liefern und damit Transparenz und Vertrauen in die Technologie zu ermöglichen.

Mit XAI Vertrauen stärken und Qualität verbessern

Transparenz ist besonders dann relevant, wenn maschinelles Lernen in gesellschaftlichen Bereichen eingesetzt wird, in denen Vertrauen in Personen, Institutionen oder Technologien besonders wichtig ist –wenn es etwa um die Sicherheit von Menschen geht. In Unternehmen wiederum kann das Wissen über das „Warum“ von KI-gestützten Vorhersagen wichtige Erkenntnisse für die Geschäftsentwicklung liefern oder zur Verbesserung von Produktionsprozessen beitragen. Zusätzlich ist Erklärbarkeit ein wichtiges Kriterium bei der Einführung von KI-Technologie im Unternehmen und für eine menschengerechte Gestaltung der KI-unterstützten Arbeitswelt.

Die Anforderungen und Erwartungen an XAI können dementsprechend sehr unterschiedlich ausfallen. Anhand von sieben verschiedenen Personengruppen – von KI-Spezialisten bis hin zu technisch unerfahrenen Nutzenden – zeigt das neue Whitepaper der Plattform Lernende Systeme, wie individuelle Rahmenbedingungen die Formen und Methoden der Erklärbarkeit beeinflussen.

„Erklärbare KI ist ein wichtiger Baustein für die Transparenz von KI-Systemen und die Möglichkeit, nachzuvollziehen, aufgrund welcher Information ein KI-System zu einer bestimmten Ausgabe gekommen ist“, so Prof. Dr. Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg sowie Co-Autorin des neuen Whitepapers der Plattform Lernende Systeme. „Nachvollziehbarkeit ist auch eine wesentliche Voraussetzung für menschliche Kontrolle und Aufsicht. Durch die Kombination von erklärbarer KI und interaktivem maschinellen Lernen können Modelle durch Rückmeldung gezielt verbessert werden. So können maschinelles Lernen und menschliche Expertise sinnvoll zusammenspielen.“

Die Frage nach dem „wie“ und „warum“ KI-Anwendungen zu ihren Ergebnissen kommen, eine Chatbot-Eingabe zu einer bestimmten Wortfolge führt oder ein Bildgenerator genau dieses und kein anderes Bild erstellt, kann mittels erklärbarer KI beantwortet werden: XAI-Methoden können helfen, Rückschlüsse auf die Qualität der Datenbasis zu ziehen, indem untersucht wird, wie stark welche Merkmale die Modellausgabe beeinflussen. Sie können im Modell Einblicke in künstliche neuronale Netzwerke gewähren, in dem sie Aufschluss über die Funktion bestimmter Bestandteile geben. XAI-Methoden helfen dabei, herauszufinden welche Merkmale der Daten dafür verantwortlich sind, dass eine bestimmte Vorhersage oder Klassifikation berechnet wird.

Forschung zu XAI-Methoden weiterentwickeln

Die Autorinnen und Autoren des Whitepapers weisen darauf hin, dass XAI – sowohl als Basis für vertrauenswürdige KI als auch als Werkzeug zur Verbesserung von Modellen – in der öffentlichen Diskussion als Chance begriffen werden sollte. Um die weitere Entwicklung dieser KI-Technologie voranzutreiben und ihr Potenzial noch besser auszuschöpfen, werden allgemeine sowie speziell auf die Zielgruppenorientierung ausgerichtete Gestaltungsoptionen vorgeschlagen. So sollte die Forschung etablierte Methoden verbessern und XAI-Methoden für neue Arten von KI weiterentwickeln. Möglich sind Instrumente zur Inspizier- und Kontrollierbarkeit großer KI-Modelle oder Standardwerkzeugkästen für eine Modellkorrektur auch ohne erneutes Training. In der Lehre sollte XAI im Sinne eines Engineering-Tools stärker in KI- und Data-Science-Studiengängen verankert werden. Unternehmen könnten vermehrt auf XAI setzen, um beispielsweise interne Kommunikationshürden abzubauen und sich von Wettbewerbern abzugrenzen.

Über das Whitepaper

Das Whitepaper „Nachvollziehbare KI. Erklären, für wen, was und wofür“ wurde von Mitgliedern der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download bereit.

Ein Interview mit Wojciech Samek, Mit-Autor des Whitepapers und Mitglied der Plattform Lernende Systeme, steht zur redaktionellen Verwendung zur Verfügung.

 

Schlagwörter

Digitale Transformation | Digitalisierung | KI | Künstliche Intelligenz

  • Kontakt

    Birgit Obermeier
    acatech – Deutsche Akademie der Technikwissenschaften
    Stellv. Leiterin der Geschäftsstelle Plattform Lernende Systeme
    Plattform Lernende Systeme
    Tel.: +49 89 520309-51
    obermeier@acatech.de

    Petra Brücklmeier
    acatech – Deutsche Akademie der Technikwissenschaften
    Referentin Kommunikation
    Plattform Lernende Systeme
    bruecklmeier@acatech.de

  • Projekte

    Rot leuchtende Glasfaserkabel vor einer Platine.

    Lernende Systeme – Die Plattform für Künstliche Intelligenz

  • Themen

    Digitale Transformation

Newsletter
Unsere Newsletter informieren Sie über aktuelle Themen, Veröffentlichungen und Veranstaltungen der Akademie und ihrer Projekte.

Jetzt anmelden

Podcast
Der acatech HORIZONTE Podcast „Late Night Tech“ ist für alle, die Lust haben auf gute Gespräche rund um Wissenschaft, Technik und Community Insider.
 
Jetzt abonnieren
  • Social Media



  • Akademie

    • Themen
    • Publikationen
    • Projekte
    • Dialog
    • Termine
    • Aktuelles
      • Blog
    • Über uns
    • Standorte
    • Stellenausschreibungen
  • Rechtliches

    • Impressum
    • Datenschutzerklärung
  • Kontakt

    acatech – Deutsche Akademie
    der Technikwissenschaften

    Geschäftsstelle
    Karolinenplatz 4
    80333 München

    +49 (0)89/52 03 09-0
    info@acatech.de

© 2025 acatech