Bildquelle: Darstellung von ChatGPT von KI und Diversität
Wird eine KI gefragt, wer im internationalen Fussball am meisten Tore geschossen hat, antwortet sie mit: «Cristiano Ronaldo mit 135 Toren». Dies ist allerdings falsch, dann Christine Sinclair hat mit 190 am meisten Tore geschossen. Wie ist das möglich? Die KI basiert auf den Informationen, mit denen sie gefüttert wurde. Leider ist es so, dass der Männerfussball eine viel höhere Präsenz im Internet (und auch sonst) hat, als der Frauenfussball. Aus diesem Grund bedient sich die KI an den populärsten Antworten und gibt diese Falschinformation wieder. Das problematische dabei: Die bereits bestehende Diskriminierung wird verstärkt.
Mit diesem Beispiel führte Nancy Wayland, CEO Wayland Consulting GmbH in den Rochester-Bern Connect-Talk zum Thema KI & Diversität ein. Es verdeutlicht sehr gut, welche Verzerrungen die KI generieren kann und wie sie bestehende Voreingenommenheit stärkt. «Ich werde euch heute ein paar kritische Inputs geben, die dazu beitragen, dass ihr KI mit Verstand und Freude nutzen könnt», so Wayland. Wichtig sei es zu verstehen, dass KI weder objektiv noch neutral ist. Es komme darauf an, in welchem Kontext die KI entstanden sei und wie sie eingesetzt werde. Die KI sei kein Zaubermittel, sondern ein Tool, das mit Intention genutzt werden sollte.
Expert/-innen gehen davon aus, dass in nicht allzu ferner Zukunft 90% der Internet Inhalte KI generiert sein werden. Verzerrungen, werden dadurch exponentiell weiter verbreitet. Warum dies kritisch ist, zeigt ein Beispiel von Bloomberg: Sie liessen durch eine KI Jobbeschreibungen mit Bildern erstellen. Eine Analyse zeigte, dass die KI für hoch bezahlte Jobs, wie «Anwalt» durchgehend hellhäutige Männer wählte und bei Berufen wie «Sozialarbeiter» überwiegend dunkelhäutige Frauen.
«Biases zu haben, ist menschlich. Wir alle haben sie! Sie helfen uns, die Welt schneller zu verstehen. Wichtig ist, dass wir uns dessen bewusst sind», so Wayland. Diese Verzerrungen, die wir alle haben, bilden sich in der KI ab. Die KI wird mit menschengemachte Daten trainiert, und diese sind voll mit Vorurteilen. Doch nicht nur im Training der KI schleichen sich Verzerrungen ein, sondern durch den ganzen Kreislauf: Entwicklung, Testung und Nutzung. «Wer eine KI-Nutzung ohne Biases will, muss den ganzen Prozess im Auge haben», sagt Wayland.
Ein Beispiel, das zeigt, wie auch die Nutzung selbst zu mehr Vorurteilen führt, sind «Predictive Policing» KI-Systeme. Ursprünglich kommen diese aus den USA werden aber inzwischen auch in der Schweiz eingesetzt. Diese Systeme sagen voraus, in welchen Quartieren es mit grösserer Wahrscheinlichkeit zu kriminellen Taten kommt. Entsprechend werden diese Quartiere mehr kontrolliert, was dazu führt, dass auch mehr kriminelle Taten entdeckt werden, wodurch diese Quartiere noch verdächtiger werden. Es entsteht ein sogenannter «Attention Bias»: Die Aufmerksamkeit wird auf etwas gerichtet und anderes ignoriert und dadurch bestätigen sich bestehende Meinungen.
Ein weiteres Thema sind die Rahmenbedingungen, in denen die KI entwickelt wird. Beispielsweise wirken weltweit in den Entwicklungsteams von KI-Innovationen nur 18% Frauen mit. Es erhalten auch viel mehr von reinen Männerteam geführte KI-Startups Risikokapital. Zudem nutzen Frauen deutlich weniger häufig KI als Männer und auch sind Tätigkeiten, in denen typischerweise mehr Frauen tätig sind, stärker durch KI gefährdet als jene von Männern. Dies bedeutet, dass es sich um einen Bereich handelt, bei dem mehrheitlich Männer entscheiden, was, wie und wann entwickelt wird.
Ebenfalls verzerrt ist die Situation, wenn es darum geht zu entscheiden, wo die wirklichen Probleme liegen und für welche Lösungen Ressourcen eingesetzt werden. Deepfake beispielsweise ist eine Methode, bei der falsche Videos erstellt werden, in denen z.B. das Gesicht einer Person auf einen anderen Körper gesetzt wird, ohne dass diese davon weiss. Zu 98% wird Deepfake in der Pornografie eingesetzt und die Leidtragenden sind zum grössten Teil Frauen. In nur rund zwei Prozent der Fälle wird mit Deepfake Fehlinformationen produziert oder Betrug begangen. Trotzdem sind die heiss diskutierten Fragen jene rund um Fehlinformation und Betrug.
«Führungskräfte können einiges tun, um diesen Verzerrungen entgegenzuwirken», sagt Wayland. Es beginnt damit, für die Einführung von KI-Systemen interdisziplinäre, diversen Teams einzusetzen. Anschliessen hilft es, diversifizierte Datensätze zu nutzen. Hierbei gibt es auch bereits eigene Algorithmen, die Datensätzeauf mögliche Verzerrungen testen. Ethische Richtlinien und Standards, die in kleinen Schritten umgesetzt werden können, führen ebenfalls zu deutlichen Verbesserungen. Und zu guter Letzt können auch Audits und unabhängige, spezialisierte Boards eingesetzt werden.
Am Ende des Mittagstalks gibt Wayland drei menschliche Eigenschaften mit, auf die wir angewiesen sind, wenn wir die KI gut nutzen wollen: das Bewusstsein (+ intellektuelle Neugier), Reflexionsfähigkeit und die Bereitschaft zum Perspektivenwechsel. Schlussendlich ist die KI ein Tool und wir entscheiden, was wir damit machen.
Mehr zu Diversität und Inklusion gibt es im CAS Leadership & Inclusion.