Ein Video von Nushin Yazdani und José Rojas.
(CC BY-NC-SA 2.0 – wir würden uns über eine Mittteilung freuen, wenn ihr das Video benutzt)
Wie Maschinen diskriminieren.
Facial Recognition & die Matrix of Domination.
Disclaimer/CW: In diesem Video werden Rassismus, Sexismus, Transfeindlichkeit und Klassismus thematisiert.
Konzept und Inhalt: Nushin Yazdani
Illustrationen: José Rojas
Animationen: Jan Schulz
Sprecherinnen: Alice Hasters und Maximiliane Häcke
Lektorat: Julian Dörr
Untertitelung und Übersetzungen:
Russisch: Iuliia Arndt
Türkisch: Merve Namlı
Spanisch: Ezequiel Pascual
Englisch: Paniz Hemmati
Farsi: Verro Ghadar
Koordination: Zain Salam Assaad
Find us here:
nushinyazdani.com
@jose_illustration
@jaschu_illustration
@feuerundbrot
Machine-Learning-Systeme sind in unserem Alltag schon längst allgegenwärtig. Immer häufiger werden menschliche Entscheidungen an vermeintlich intelligente Maschinen ausgelagert, um Arbeitsprozesse zu vereinfachen und effizienter zu gestalten. Diese Maschinen erkennen nicht nur Gesichter, sie sortieren auch Bewerbungen, beeinflussen Gerichtsprozesse, bestimmen, wer einen Kredit bekommen sollte, entscheiden über Polizeieinsätze und kontrollieren Grenzübergänge. Und immer öfter fällt auf, dass sie dabei rassistische, sexistische oder andere diskriminierende Entscheidungen treffen.
Alice und Maxi ergründen in diesem Video, was genau sich hinter diesen algorithmischen Entscheidungssystemen verbirgt, was z.B. Emotionserkennung aus den Gesichtern von Schwarzen Basketballspielern liest, was Facial Recognition mit Haustüren zu tun hat und warum Aussehen Werbeanzeigen beeinflussen kann.
Algorithmische Entscheidungssysteme, die über Menschen entscheiden, verstärken häufig soziale Ungerechtigkeit oder schaffen ganz neue Möglichkeiten der Unterdrückung. Dies ist auch deshalb ein Problem, weil sich die Gestalter*innen dieser Systeme oftmals hinter der vermeintlichen Neutralität der Technik verstecken. Was es umso schwieriger macht, sie überhaupt in Frage zu stellen.
Inspiriert von der Arbeit vieler großartiger Wissenschaftler*innen und Aktivist*innen, z.B. Joy Buolamwini (ajl.org/), Lauren Rhue (theconversation.com/emotion-reading-tech-fails-the-racial-bias-test-108404), Timnit Gebru (nytimes.com/2021/03/15/technology/artificial-intelligence-google-bias.html), Mimi Onuoha & Mother Cyborg (alliedmedia.org/resources/peoples-guide-to-ai), Kimberlé Crenshaw (chicagounbound.uchicago.edu/cgi/viewcontent.cgi?article=1052&context=uclf), Mutale Nkonde (aiforpeople.org/), Dr. Nakeema Stefflbauer (youtube.com/watch?v=HbyPcRGN2uM) u.a.
Dieser Film wurde im Rahmen der gleichstellungsfördernden Maßnahmen des Professorinnenprogramms II an der FH Potsdam realisiert.
Vielen Dank an Sandra Cartes, Constanze Langer und das Team der FH Potsdam.
Die Untertitelung wurde ermöglicht durch die großzügige Förderung von Humanity in Action und der Alfred Landecker Stifung im Rahmen des Landecker Democracy Fellowships.