Alle 14 Tage aktuelle News aus der IT-Szene >
Ein neues Whitepaper der Plattform Lernende Systeme zeigt, wie Künstliche Intelligenz (KI) mit Methoden der Erklärbarkeit für unterschiedliche Zielgruppen transparenter gestaltet werden kann. Die Forschung zu Explainable AI (XAI) macht dabei nicht nur die Funktionsweise komplexer Modelle verständlicher, sondern ermöglicht auch eine gezielte Verbesserung von KI-Systemen. Warum das so wichtig ist, erläutert auch KI-Experte Prof. Wojciech Samek.
Foto: Plattform Lernende Systeme
Wojciech Samek, Professor für maschinelles Lernen und Kommunikation an der TU Berlin und Leiter der Abteilung für Künstliche Intelligenz und der Explainable AI Group am Fraunhofer Heinrich-Hertz-Institut (HHI) Berlin
Künstliche Intelligenz ist längst in unserem Alltag angekommen – durch Sprachassistenten, automatisierte Bewerbungsverfahren oder Bildgenerierung. Doch wie genau ein KI-System zu einer bestimmten Entscheidung kommt, bleibt für die meisten Menschen ein Rätsel. Um dieser Black Box entgegenzuwirken, stellt die Plattform Lernende Systeme in ihrem aktuellen Whitepaper Methoden und Empfehlungen vor, die die Nachvollziehbarkeit und Erklärbarkeit von KI-Ergebnissen ermöglichen. Dabei geht es nicht nur um technische Aspekte, sondern auch um ethische und gesellschaftliche Anforderungen – ein Thema, das auch Prof. Wojciech Samek, Professor für maschinelles Lernen und Kommunikation an der TU Berlin und Leiter der Abteilung für Künstliche Intelligenz und der Explainable AI Group am Fraunhofer Heinrich-Hertz-Institut (HHI) Berlin, beschäftigt.
Ob in der medizinischen Diagnostik, der Qualitätskontrolle in der Industrie oder bei der Auswahl von Bewerber:innen – die Entscheidungen von KI-Systemen haben reale Konsequenzen. Nur wenn diese Entscheidungen nachvollziehbar sind, lassen sie sich überprüfen und gegebenenfalls korrigieren. Dies stärkt nicht nur das Vertrauen in die Technologie, sondern ermöglicht auch eine verantwortungsvolle Nutzung in sensiblen Bereichen. Wie Prof. Ute Schmid betont, ist die Erklärbarkeit „eine wesentliche Voraussetzung für menschliche Kontrolle und Aufsicht“ – vor allem dort, wo es um Sicherheit und Fairness geht.
Die Anforderungen an erklärbare KI unterscheiden sich je nach Zielgruppe erheblich. Während Entwickler:innen detaillierte technische Einblicke benötigen, reicht vielen Nutzenden eine verständliche Begründung für eine Entscheidung. Das Whitepaper identifiziert sieben verschiedene Zielgruppen – von KI-Fachleuten bis zu technisch weniger versierten Personen – und zeigt, wie Methoden der Explainable AI (XAI) passgenau eingesetzt werden können. Die Bandbreite reicht von visualisierten Einflussfaktoren bis hin zu interaktiven Nutzeroberflächen.
Die Forschung zu XAI lässt sich laut Prof. Samek in drei Wellen einteilen: Zunächst ging es darum, einzelne Modellentscheidungen sichtbar zu machen – etwa durch Methoden wie Layer-wise Relevance Propagation (LRP). Die zweite Phase zielte auf das Verständnis einzelner Komponenten im Modell ab, zum Beispiel durch Concept Relevance Propagation (CRP). In der aktuellen, dritten Welle versucht XAI, das Verhalten und die Struktur ganzer Modelle systematisch zu erfassen. Methoden wie SemanticLens erlauben tiefgreifende Analysen bis auf die Ebene einzelner Neuronen – und machen so sichtbar, ob ein Hautkrebsmodell etwa der medizinischen ABCDE-Regel folgt.
Ein zentraler Mehrwert erklärbarer KI liegt in der Verbesserung der Modellqualität. Samek nennt ein prägnantes Beispiel: Ein KI-Modell mit scheinbar hoher Genauigkeit identifizierte Pferdebilder nicht anhand des Tieres, sondern anhand eines typischen Wasserzeichens. Nur durch erklärbare Verfahren konnte dieses „Schummeln“ erkannt werden. Solche Methoden helfen, Fehler frühzeitig zu entdecken und gezielt gegenzusteuern – besonders wichtig bei komplexen Systemen wie großen Sprachmodellen. Die Entwicklung geht dabei von der passiven Erklärung hin zur aktiven Modellsteuerung.
Erklärbarkeit ist nicht nur ein technisches Thema, sondern auch eine strategische Ressource: Unternehmen können XAI nutzen, um interne Entscheidungsprozesse transparenter zu machen, regulatorische Anforderungen zu erfüllen oder sich durch vertrauenswürdige KI von Mitbewerbern abzugrenzen. In der Lehre sollte XAI laut Whitepaper stärker als ingenieurwissenschaftliches Werkzeug etabliert werden. Auch der Gesetzgeber hat das Thema erkannt: Mit dem AI Act der EU wird Erklärbarkeit in bestimmten Anwendungen zur Pflicht – ein Umstand, der laut Samek die Bedeutung erklärbarer Systeme weiter steigern wird.
Deutschland ist im Bereich erklärbarer KI führend – sowohl was die Entwicklung grundlegender Methoden als auch die Expertise betrifft. Prof. Samek sieht darin einen klaren Standortvorteil: „Hier wurden viele fundamentale Techniken entwickelt, und einige der führenden Forschenden sind hier tätig.“ Diese Stärken gelte es jetzt strategisch zu nutzen, um eine vertrauenswürdige, transparente und verantwortungsvolle KI zu gestalten – als Game Changer nicht nur für die Technologie, sondern für die gesamte Gesellschaft.
Whitepaper:
„Nachvollziehbare KI Erklären: Für wen, was und wofür“
Kostenfreier Download über die Plattform Lernende Systeme.