August 16, 2022
Teilen über

Fairness in der KI - Teil I: Messung der Fairness in der KI

Das maschinelle Lernen (ML) spielt im Alltag eine immer größere Rolle, indem es uns hilft, Entscheidungen zu treffen - von der Wahl, welche Filme wir auf Netflix ansehen oder welche Nachrichten wir auf Facebook lesen, bis hin zu potenziell lebensverändernden Entscheidungen wie Arbeits- und Kreditanträgen oder Entscheidungen im Gesundheitswesen. Aber können wir diese automatisierten Entscheidungen, die von Systemen der künstlichen Intelligenz (KI) getroffen werden, als fair bezeichnen? Können wir uns auf ML-Algorithmen verlassen, wenn es um Kredit- und Stellenbewerbungen geht, oder sind sie anfällig für Verzerrungen, die sich negativ auf bestimmte Gruppen von Menschen auswirken würden? Leider waren in den letzten Jahren voreingenommene Entscheidungen von KI allgegenwärtig: Googles Suchmaschine scheint davon auszugehen, dass die meisten CEOs weiße Männer sind, Amazons kostenlose Lieferung scheint schwarze Viertel in US-Städten zu benachteiligen, und sein Einstellungsmodell war voreingenommen gegenüber Frauen, und es wurde nachgewiesen, dass Stellenanzeigen eher männlichen als weiblichen Verbrauchern angezeigt werden.

Solche Ungerechtigkeiten haben verschiedene Ursachen. Probleme können dadurch verursacht werden, worauf ein Algorithmus zu optimieren versucht. Eine bestimmte Art von Stellenanzeige, die mehr Männern als Frauen angezeigt wird, kann das Ergebnis eines Algorithmus sein, der sich auf die Kosteneffizienz der Werbung in einer Branche konzentriert, die für die Zustellung von Anzeigen an jüngere Frauen mehr verlangt als für Männer. Häufiger liegt das Problem in den Daten selbst - zum Beispiel waren in der Vergangenheit CEOs meist weiß und männlich, und solche veralteten Informationen können immer noch den neuesten KI-Systemen zugrunde liegen. Fehlerhafte Daten führen zu fehlerhaften Ergebnissen, oder, wie Informatiker zu sagen pflegen: "Garbage in, garbage out." Aber wie können wir entscheiden, ob ein System unfair ist oder nicht? Was kann ein Unternehmen tun, um negative Schlagzeilen wie die oben genannten zu vermeiden?

Wie lässt sich Fairness im Zusammenhang mit der Entscheidungsfindung messen?

Fairness im Zusammenhang mit der Entscheidungsfindung "ist die Abwesenheit von Vorurteilen oder Bevorzugung einer Person oder Gruppe aufgrund ihrer angeborenen oder erworbenen Eigenschaften", wie es die Forscher des Information Sciences Institute der University of Southern California ausdrücken. Aber wie kann sie gemessen werden? Stellen wir uns ein ML-Modell vor, das über die Kreditwürdigkeit von Personen entscheidet, die einen Bankkredit beantragen. Anhand von Kredithistorie, Einkommen, Alter, Vorstrafen usw. stuft es jede Person entweder als kreditwürdig (und damit wahrscheinlich als kreditwürdig) oder als kreditunwürdig (wahrscheinlich als zahlungsunfähig) ein. Wir müssen uns genauer ansehen, welche Entscheidungen das ML-Modell getroffen hat - und ob die als kreditwürdig eingestuften Personen die ihnen gewährten Kredite tatsächlich zurückgezahlt haben.

Wie wir die Fairness-Klassifizierungen in ML-Modellen bewerten

Der so genannte deutsche Kreditdatensatz enthält beispielsweise Informationen über 1000 Kreditantragsteller. Jede Person wird anhand einer Reihe von Merkmalen als gutes oder schlechtes Kreditrisiko eingestuft - wofür sie den Kredit benötigt, ihr Alter, ihr Geschlecht, ob sie Wohneigentum besitzt, wie viel sie gespart hat usw. Mit den von DAIN Studios entwickelten Tools können wir die Fairness dieser Klassifizierungen auf verschiedene Weise bewerten. Zunächst wählen wir das, was Datenwissenschaftler als "geschützte Variable" bezeichnen, d. h. die Variable, aus der sich die für uns interessante Bevölkerungsgruppe zusammensetzt. Dies kann die ethnische Zugehörigkeit, das Geschlecht, die Alters- oder Einkommensgruppe usw. sein. - oder eine Kombination davon, wenn wir uns z. B. dafür interessieren, wie Menschen einer bestimmten Altersgruppe und ethnischen Zugehörigkeit vom ML-Modell behandelt werden.

Nehmen wir das Geschlecht. Eine der gebräuchlichsten Definitionen von Fairness ist die demografische oder statistische Parität, die in diesem Beispiel sicherstellen würde, dass die Ergebnisse eines Algorithmus für Männer und Frauen gleich sind. Das bedeutet, dass der deutsche Kreditdatensatz eine Kreditantragsannahmequote haben sollte, die für Männer und Frauen ungefähr gleich ist. Im Kreditdatensatz erhielten 73 % der Männer den beantragten Kredit, aber nur 61 % der Frauen. Ob wir das Ergebnis als ungerecht ablehnen, hängt davon ab, wie streng wir sind. Ein gängiger Ansatz besteht darin, alles bis zu einem Unterschied von 20 Prozent zwischen zwei Werten als akzeptabel zu betrachten. Das würde in diesem Fall bedeuten, dass das ML-Modell des Datensatzes die demografische Parität in Bezug auf das Geschlecht erfüllt.

Fariness in AI (künstliche Intelligenz)

Ein Problem mit der demografischen Parität ist, dass sie auf unfaire Weise erfüllt werden kann. Mit Hilfe des Modells könnten wir zum Beispiel die besten 80 % der männlichen Bewerber sorgfältig auswählen und jede fünfte Frau nach dem Zufallsprinzip ablehnen. Dies würde das Ergebnis gemäß der demografischen Parität als gerecht erscheinen lassen. Eine alternative Fairness-Definition nennt sich Equalized Odds, die in diesem Fall sicherstellt, dass alle kreditwürdigen Antragsteller die gleiche Chance auf einen Kredit haben, unabhängig davon, ob sie Männer oder Frauen sind. Diese Bedingung ist erfüllt, wenn männliche und weibliche Anträge den gleichen Anteil an so genannten "True Positives" (Kredite, die an kreditwürdige Kreditnehmer vergeben werden) und "False Positives" (Kredite, die an riskante Kreditnehmer vergeben werden) aufweisen.

Die nachstehende so genannte Konfusionsmatrix hilft, dies zu verstehen. Anhand der Daten für Männer und Frauen aus unserem deutschen Kreditdatensatz können wir feststellen, welcher Anteil jedes Geschlechts zu Recht einen Kredit erhalten hat (echte Positive) und welcher Anteil zu Unrecht einen Kredit erhalten hat (falsche Positive). Dabei zeigt sich, dass, wenn wir den Empfehlungen des Modells folgen, 70 Prozent der kreditwürdigen Frauen und 84 Prozent der kreditwürdigen Männer einen Kredit erhalten, während 48 Prozent der kreditunwürdigen Frauen und 40 Prozent der kreditunwürdigen Männer ebenfalls einen Kredit aufnehmen können. Ob das ML-Modell Männer und Frauen wieder gleich behandelt, hängt davon ab, wie ernst wir die Diskrepanzen nehmen, die sich in diesen Fehlerquotenpaaren zeigen.

ML-Modelle Entscheidung
Ein drittes Fairness-Kriterium ist die Ausreichendheit. Ähnlich wie bei der Chancengleichheit müssen zwei Bedingungen erfüllt sein, um Fairness zu gewährleisten. Bei Bankkrediten bedeutet dies erstens, dass der Anteil der Kreditnehmer, die den Kredit zurückzahlen, unter denjenigen, für die das Modell die Rückzahlung vorhersagt, für Männer und Frauen gleich sein sollte. Zweitens sollte der Anteil der Kreditnehmer, die ihren Kredit nicht zurückzahlen, bei Männern und Frauen gleich hoch sein, wenn das Modell dies vorhersagt. Wie Datenwissenschaftler sagen, müssen der positive prädiktive Wert (PPV) und der negative prädiktive Wert (NPV) für die ungeschützten und die geschützten Gruppen gleich sein - wobei letztere auf mögliche Ungerechtigkeiten überwacht werden. Der deutsche Kreditdatensatz weist eine große Diskrepanz beim PPV auf (65 % bei Frauen, 86 % bei Männern), während der NPV gleich ist (57 % für beide).
ML-Modelle Entscheidung
Wir sehen, dass es viele verschiedene Arten gibt, Fairness zu definieren und zu messen. Die verschiedenen Arten der Messung der geschlechtsspezifischen Fairness des deutschen Kreditdatensatzes zeigen uns, dass ein etwas geringerer Anteil von Frauen (61 % der weiblichen Antragsteller) als von Männern (73 %) einen Kredit erhielt, dass ein geringerer Anteil kreditwürdiger Frauen (70 %) als kreditwürdiger Männer (84 %) vom Modell als kreditwürdig eingestuft wurde, dass aber ein etwas höherer Anteil nicht kreditwürdiger weiblicher Kreditnehmer trotzdem einen Kredit erhalten kann (48 % der kreditunwürdigen Frauen gegenüber 40 % der kreditunwürdigen Männer). Darüber hinaus war das ML-Modell besser in der Lage vorherzusagen, ob männliche Kreditnehmer ihre Kredite zurückzahlen würden, obwohl es die Ausfallquoten von Männern und Frauen gleich gut vorhersagte.

Um die Fairness von KI-Systemen zu messen, müssen wir je nach Anwendungsfall eine Fairness-Metrik auswählen.

Es gibt noch viele weitere Fairness-Definitionen und -Kennzahlen, aber die meisten stützen sich auf die drei beschriebenen Arten. Wie können wir Algorithmen entwickeln, die alle diese Anforderungen erfüllen? Glücklicherweise müssen wir das nicht. Das Unmöglichkeitstheorem der Fairness besagt, dass die drei Fairnesskriterien - Unabhängigkeit (auch bekannt als demografische Parität), Trennung (auch bekannt als Chancengleichheit) und Suffizienz - nicht alle gleichzeitig erfüllt werden können. Das bedeutet, dass wir Kompromisse eingehen müssen, wenn wir über die Fairness von KI-Systemen nachdenken, und dass wir je nach Anwendungsfall eine Fairness-Metrik auswählen müssen. Equalized Odds" wäre zum Beispiel nicht die am besten geeignete Metrik für die Untersuchung der Fairness von Problemen, bei denen falsch-positive Ergebnisse selten sind, wie z. B. bei SARS-CoV-2-Antigentests. Wir sollten auch darüber nachdenken, ob die Entscheidung, die das ML-Modell unterstützen soll, strafend (wie die Festlegung einer Bewährungsstrafe) oder unterstützend (wie die Gewährung eines Kredits) ist.

Fairnesskriterien in der KI
Der vom Aquitas-Projekt an der Carnegie Mellon University entwickelte Fairness-Baum kann uns dabei helfen, von unserem allgemeinen Ziel an der Spitze zu der empfohlenen Fairness-Metrik an der Basis zu gelangen. Beim deutschen Kreditdatensatz haben wir uns zum Beispiel auf Fehler und nicht auf Darstellungen konzentriert. Die Vergabe von Krediten ist eine Hilfsmaßnahme, die einen großen Prozentsatz der Bevölkerung betrifft. Wenn wir uns am meisten Sorgen darüber machen, dass Menschen ohne Unterstützung (abgelehnte Kreditantragsteller) unfair behandelt werden, wäre die beste Fairness-Metrik etwas, das man False Omission Rate (FOR) Parität nennt. (Da FOR = 1-NPV ist, bezieht sich diese Kennzahl auch auf das Kriterium der Hinlänglichkeit).
Falschauslassungsquote Geschlecht
Betrachtet man die FOR-Werte, so stellt man fest, dass 43 % der Frauen, für die das Modell einen Kreditausfall vorhersagte, ihren Kredit tatsächlich zurückgezahlt hätten - genau der gleiche Anteil wie bei den Männern. Auch wenn das Modell fälschlicherweise 43 % der weiblichen und männlichen Kreditantragsteller nicht berücksichtigt (oder ihnen fälschlicherweise die Kreditvergabe verweigert), behandelt es Männer und Frauen gleich. Wenn wir uns also in diesem Fall auf FOR als unseren Fairnessmaßstab und Frauen als unsere geschützte demografische Gruppe konzentrieren, können wir bestätigen, dass unsere ML-gestützten Kreditscoring-Entscheidungen keine "Vorurteile oder Bevorzugung einer Person oder Gruppe" aufweisen. Fairness kann gemessen werden - sobald wir die richtige Fairness-Definition gefunden haben, die wir verwenden können.

Referenzen

Im ersten von vier Artikeln erklärt Máté Váradi die drei wichtigsten Fairness-Kriterien und warum Entscheidungsträger je nachdem, was auf dem Spiel steht, immer eines der anderen vorziehen müssen. Diese Arbeit wurde im Rahmen des Projekts Artificial Intelligence Governance and Auditing (AIGA) durchgeführt, das vom KI-Business-Programm von Business Finland finanziert wurde.

Einzelheiten

Titel: Faire und erklärbare KI: Messung der Fairness in der automatisierten Entscheidungsfindung
Autor:
DAIN StudiosDaten & KI Strategieberatung
Veröffentlicht in
Aktualisiert am 23. November 2023