11. Juni 2021
Teilen über

Was ist "Explainable AI" und warum ist es wichtig?

In den letzten zehn Jahren hat die Nutzung der künstlichen Intelligenz erhebliche Fortschritte gemacht. KI-gestützte Anwendungen haben Einzug in unser tägliches Leben gehalten. Gleichzeitig sind Bedenken darüber aufgekommen, wie KI-Algorithmen Entscheidungen treffen. Auf DAIN Studios haben wir untersucht, wie künstliche Intelligenz "erklärt" werden kann. In diesem und den folgenden Artikeln erläutern wir, was erklärbare KI (XAI) ist und was wir von ihr erwarten können.

Was ist XAI?

Die durch künstliche Intelligenz (KI) unterstützte Entscheidungsfindung nimmt sowohl in der Industrie als auch im öffentlichen Dienst rasant zu, was in der Gesellschaft die Forderung nach mehr Transparenz darüber aufkommen lässt, wie Algorithmen Entscheidungen treffen. Für diejenigen, die von KI-gestützten Entscheidungen betroffen sind, ist Vertrauen entscheidend für den Erfolg von KI-basierten Systemen. Im Einklang mit den industriellen Revolutionen hat sich KI, wie Elektrizität und Automatisierung, zu einer Allzwecktechnologie entwickelt, die den Bedarf an Vertrauen weiter erhöht. Daher ist es von grundlegender Bedeutung, zu erklären, wie KI Entscheidungen trifft, um eine faire und erfolgreiche Entwicklung dieser Technologie und ihrer Auswirkungen auf die Gesellschaft zu gewährleisten.

Ab 2010 wurden die Anwendungsfälle in der modernen Ära der KI durch skalierbare Unternehmenslösungen erleichtert. Microsofts Xbox Kinect brachte das maschinelle Sehen in unsere Häuser, Apples Siri brachte uns bei, mit Telefonen zu sprechen, und DeepMinds AlphaGo verblüffte uns mit seinen Fähigkeiten, indem es die weltbesten Go-Spieler besiegte. Dies alles sind frühe technologieorientierte Anwendungsfälle. Man könnte sie auch als Beispiele für die ersten Fähigkeiten der künstlichen Intelligenz betrachten, die heute als selbstverständlich gelten.

Heute, im Jahr 2021, ist fast jedes Unternehmen und jede Organisation entweder von KI abhängig, hat sie eingesetzt oder mit dem Aufbau von KI-gestützten Lösungen begonnen, die eine KI-gestützte Entscheidungsfindung ermöglichen. Auf den ersten Blick ermöglichen KI-Lösungen wie Gesichts- und Stimmerkennung sowie prädiktive Analysen Unternehmen und Organisationen die schnelle Erstellung von Nutzerprofilen und die Vorhersage von Nutzerwünschen mit unheimlicher Genauigkeit. So schaffen diese Technologien hochwertige Datenbestände und KI-Portfolios für Unternehmen, die Daten und KI monetarisieren. Die Auswirkungen dieser Anwendungsfälle sind jedoch kaum bekannt, was ethische Fragen aufwirft und einen starken Bedarf an Transparenz bei KI-gestützten Entscheidungen hervorruft. Zu erklären, wie KI ihre Entscheidungen trifft und die direkten und indirekten Auswirkungen dieser Entscheidungen zu verstehen, ist die treibende Motivation für unsere Arbeit.

Erklärbare künstliche Intelligenz (Explainable Artificial Intelligence, XAI) ist ein Forschungsgebiet, das sich auf die Verbesserung der Transparenz bei der KI-gestützten Entscheidungsfindung konzentriert. Diese Klarheit wird erreicht, indem offengelegt wird, was sich in der "Black Box" befindet, und die Prozesse und Daten erklärt werden, die zu KI-gestützten Entscheidungen führen.

Was gibt es da zu erklären?

Mit dem Aufkommen alltäglicher KI-Anwendungsfälle, die einfache und komplexe Entscheidungen empfehlen und jedem Menschen mit einem digitalen Gerät zugänglich machen, haben Fachleute und die breite Öffentlichkeit begonnen, Fragen zu den von Maschinen getroffenen Entscheidungen zu stellen. Ohne die Grundlage für ihre Entscheidungen zu verstehen, ist es für uns Menschen schwierig, den Maschinen zu vertrauen und sie zu akzeptieren. In vielen Fällen neigen wir dazu, Menschen mehr zu vertrauen als Maschinen, wenn es darum geht, Entscheidungen zu treffen, auch wenn beide unter ähnlichen Entscheidungsfehlern leiden können. In mehreren Fällen ist jedoch erwiesen, dass bestimmte Algorithmen erheblich verzerrt wurden, was zu schlechten Entscheidungen geführt hat.

Zusätzlich zu den Entscheidungsfehlern kann das Modell, das die Maschine zur Entscheidungsfindung verwendet, sehr komplex sein. Diese Komplexität des Modells kann auf einen komplizierten Datensatz zurückzuführen sein, der für das Training des Modells verwendet wird, oder auf die Dynamik, die dadurch entsteht, dass sich das Modell ständig anpasst, wenn neue Eingabedaten bereitgestellt werden. Diese Faktoren machen die manuelle Überprüfung der Korrektheit des Systems schwierig, wenn nicht gar unmöglich.

Bedenken und Fragen in Bezug auf das Verhalten von Algorithmen treten am deutlichsten zutage, wenn die Maschine Entscheidungen trifft, die erhebliche Auswirkungen auf das Leben der Menschen haben. Solche Entscheidungen können beispielsweise getroffen werden, wenn die KI eine Krankheit diagnostiziert oder entscheidet, wer für bestimmte Dienste oder Leistungen in Frage kommt oder bevorzugt behandelt wird.

Die Erklärbarkeit wird sogar noch wichtiger, wenn Algorithmen rassistisch und sexistisch sind (z. B. könnte der Algorithmus selbst keine explizite Ungerechtigkeit eingebaut haben, aber die Präferenz könnte aus den Trainingsdaten gelernt worden sein). In einem kürzlich in der Fachzeitschrift Nature erschienenen Artikel wird untersucht, wie ein Algorithmus, der in US-amerikanischen Krankenhäusern häufig für die Zuweisung von Gesundheitsleistungen an Patienten verwendet wird, systematisch Schwarze diskriminiert.

Es gibt viele Beispiele von Versicherungsprämien bis hin zu Entscheidungen über Bankkredite, die zeigen, wie KI-gestützte Entscheidungen Transparenz und Erklärbarkeit erfordern.

Aus diesen Bedenken ergeben sich mehrere Fragen. Konkret:

Aus welcher Art von Daten lernt das System?

  • Wie genau ist die Ausgabe?
  • Wie ist der Algorithmus zu dieser Entscheidung/Empfehlung gekommen?
  • Warum wurden die anderen Alternativen nicht gewählt?

Eine vollständigere Liste von Fragen findet sich z. B. in diesem Papier. Einige dieser Fragen sind leichter zu beantworten, andere sind schwieriger. So werden z. B. Genauigkeits- und Fehlerquoten häufig zusammen mit KI-Ergebnissen angegeben, so dass sie mit einer Testmenge recht einfach zu berechnen sind. Die Entscheidungen von Deep-Learning-Modellen mit Millionen von Parametern, die auf nicht triviale Weise miteinander verbunden sind, zu verstehen, ist jedoch eine viel schwierigere Aufgabe.

Es mag verlockend sein zu sagen, dass überall dort, wo wir Modelle des maschinellen Lernens einsetzen, auch XAI wichtig sein wird. Dies ist eine Binsenweisheit, da XAI-Methoden immer als Debugging-Tools für maschinelle Lernsysteme verwendet werden können. Dennoch gibt es in einigen Bereichen ein höheres Potenzial und eine höhere Dringlichkeit für Erklärbarkeit als in anderen. Um den Umfang dieses Artikels zu begrenzen, konzentrieren wir uns auf XAI-Anwendungsfälle in der medizinischen Bildgebung.

AI in der Computer Vision

In den letzten Jahren hat es in verschiedenen Bereichen Entwicklungen gegeben, die unsere Fähigkeit zur Nutzung und Anwendung von Computer Vision AI verbessert haben. Die wichtigste Veränderung war die Kostenreduzierung beim Speicherplatz, die Verfügbarkeit von Rechenleistung und die Standardisierung von Bildaufnahmegeräten wie Mobiltelefonen. Dank dieser Fortschritte bei den Grundlagentechnologien können wir schnellere und komplexere Probleme mit komplexeren Modellen lösen.

Mit Blick auf die Zukunft schlagen Unternehmen wie Google und Amazon zugängliche Anwendungen für die Entwicklung von Computer Vision vor, für die fast kein Code erforderlich ist, und entwickeln diese. Diese Art von Entwicklungen wird die Zugänglichkeit und die Anwendungsfälle von Computer Vision AI verbessern.

Obwohl die KI im Bereich der Computervision technische Fortschritte macht, wird die Technologie in der medizinischen Bildgebung nach wie vor meist nur in Pilotprojekten eingesetzt. Die mangelnde Skalierbarkeit wird durch das Verständnis der Ergebnisse der Algorithmen behindert. Erklärbare KI hat jedoch das Potenzial, dies zu ändern.

Ein XAI-Beispiel im Bereich der Computer Vision

Unter DAIN Studios haben wir eine erklärbare KI namens Naama entwickelt, um mit Computer Vision und XAI zu experimentieren. Sie kombiniert im Wesentlichen Gesichtserkennung, Gesichtserkennung und Emotionsklassifikatoren. Darüber hinaus enthält Naama eine erklärbare KI-Schicht, die den Teil des Bildes zeigt, der für die Klassifizierung des emotionalen Zustands der Person verwendet wird. Dank der Graphics Processing Unit (GPU) läuft all dies nahezu in Echtzeit und ermöglicht die gleichzeitige Analyse mehrerer Personen.

Das Naama-System erkennt Gesichter und zeigt den Namen, das Geschlecht und die Emotion an.

Die Modelle, die in der Naama-API für die Erkennung von Gesichtsemotionen verwendet werden, wurden anhand eines generischen Datensatzes vortrainiert und für diesen speziellen Zweck mithilfe von Transferlernen neu trainiert. In dem System verwenden wir den Code aus einem offenen Code-Repository als Grundlage für die Gesichtsemotionserkennung.

Das System ist darauf trainiert, zustimmende Personen anhand ihres Namens und ihrer emotionalen Zustände im Gesicht in Echtzeit zu erkennen, die auf verschiedenen Kategorien basieren, z. B. wütend, glücklich, neutral, traurig und überrascht. Die emotionalen Zustände werden mit durchschnittlichem Vertrauen dargestellt, während in einer anderen Schicht der Algorithmus von Naama ausgepackt wird, um die Gesichtspunkte zu zeigen, die zur Zuordnung der emotionalen Kategorien geführt haben.

Der graue Kasten auf der rechten Seite zeigt, welcher Bereich des Bildes für die Erkennung der Emotion am wichtigsten war.
Die graue Ebene ist ein Beispiel für eine erklärbare KI-Lösung und veranschaulicht eine Möglichkeit, dem Benutzer die Bedeutung der Pixel zu vermitteln. Je dunkler ein Pixel in dieser Ebene ist, desto wichtiger ist dieser Bereich für die Erkennung der Stimmung der Person.

Nächster Artikel in der XAI-Serie

In diesem Artikel haben wir erläutert, was XAI ist und warum es ein wichtiges Forschungsthema ist. Der nächste Artikel in dieser XAI-Reihe befasst sich mit XAI-Methoden in der Praxis und konzentriert sich auf die medizinische Bildgebung.

Referenzen & mehr

Sprechen Sie uns an, wenn Sie mehr darüber erfahren möchten, wie wir Sie bei Ihrer Datenreise, KI oder XAI unterstützen können.

Einzelheiten

Titel: Wie kann man künstliche Intelligenz transparenter machen?
Autor:
DAIN StudiosDaten & KI Strategieberatung
Veröffentlicht in
Aktualisiert am 23. November 2023