Machen wir uns nichts vor: Wir haben Vorurteile. Wer kriegt den Job oder den Kredit? Wer muss wie lange ins Gefängnis? Solche Fragen müssen Menschen beantworten – doch wie können sie dabei sicher sein, rational zu entscheiden? Wäre es da nicht viel klüger, wir würden solche Entscheidungen einer künstlichen Intelligenz überlassen? In vielen Fällen geschieht das bereits …
Künstliche Intelligenz ist längst unter uns: Im Navi lässt sie uns Staus umfahren, in Dating-Apps die große Liebe finden, sie schlägt uns Produkte oder Filme vor. Aber zunehmend ist KI auch an schwierigeren Entscheidungen beteiligt: In China zum Beispiel kommt sie in Gerichtsprozessen zum Einsatz. Viele Unternehmen lassen Algorithmen Bewerbungen aussortieren. Und Sicherheitsbehörden weltweit benutzen künstliche Intelligenz, um Menschen in Echtzeit zu identifizieren. Unbestechlich und rein objektiv oder voreingenommen? Können wir uns eigentlich sicher sein, dass dabei alles korrekt abläuft, nach unseren moralischen Vorstellungen?
Daran haben Forscherinnen und Forscher erhebliche Zweifel. Annika Buchholz vom Max-Planck-Institut für Intelligente Systeme zum Beispiel sagt: „Die KI ist genauso rassistisch wie wir Menschen.“ Das liege an den Daten über Menschen, mit der die KI arbeitet. Die stammen aus der Offline-Welt. Die Diskriminierung, die es dort gibt, ist in die Daten, mit der die KI rechnet, eingeschrieben. Die mathematischen Möglichkeiten, solche Verzerrungen zu korrigieren, sind begrenzt.
Und nicht nur die Daten können ein Problem sein. Katharina Zweig von der TU Kaiserslautern untersucht, inwiefern sich auch durch die Vorgaben der Entwicklerinnen und Entwickler Fehler einschleichen. Ihr Fazit: In vielen Fällen könne die Maschine gar nicht in unserem Sinne gerecht entscheiden. Erwarten wir zu viel von den Computern? Oder können wir ihnen moralisches Handeln beibringen?
Magazin, Regie: Thies Schnack (D 2021, 28 Min)
Quellen und weiterführende Links:
Wie und wo kommt KI in der Justiz zum Einsatz?
Hier zeigt das chinesische Staatsfernsehen, wie ein “Internet Court” funktioniert:
Der Fall des Amerikaners Michael Oliver, der von einer Polizei-KI falsch identifiziert wurde und warum Algorithmen “rassistisch” sein können:
Wie Estland plant, Fälle mit geringem Streitwert durch KI regeln zu lassen:
https://www.wired.com/story/can-ai-be-fair-judge-court-estonia-thinks-so/
Welche Probleme KI mit nicht-weißer Hautfarbe hat
Wie eine KI Obama zu einem Weißen machte:
https://www.theverge.com/21298762/face-depixelizer-ai-machine-learning-tool-pulse-stylegan-obama-bias
Das “Gender Shades” Projekt des MIT Media Lab hat das Thema “algorithmic bias” umfassend aufgearbeitet:
https://www.media.mit.edu/projects/gender-shades/overview/
Wie KI-bias bei der Bewerbung Probleme bereitet:
Algorithmen in der Personalabteilung und der KI-Fail bei Amazon:
Nakeema Stefflbauer über bias im recruiting in Europa:
https://sifted.eu/articles/europe-ai-bias-recruiting/
Weitere Links:
“I am AI” – klassische Musik, die von einer künstlichen Intelligenz komponiert wurde:
Die Schoko-Nobelpreis-Korrelation:
https://www.biostat.jhsph.edu/courses/bio621/misc/Chocolate%20consumption%20cognitive%20function%20and%20nobel%20laurates%20(NEJM).pdf
Alfies Mitarbeiter-Seite an der TU Darmstadt:
https://www.ml.informatik.tu-darmstadt.de/people/alfie/index.html
#computer #vorurteile #42
Video auf YouTube verfügbar bis 21/05/2023
Abonniert den Youtube-Kanal von ARTE: http://www.youtube.com/user/ARTEde
Folgt uns in den sozialen Netzwerken:
Facebook: http://www.facebook.com/ARTE.tv
Twitter: https://twitter.com/ARTEde
Instagram: https://www.instagram.com/arte.tv/