Aus gegebenem Anlass unterbreche ich die aktuelle Artikelreihe ‚Frauen der Informatik‘ einmalig. Die Frauen kommen wieder – keine Frage. Aber im Januar habe ich einen Artikel gelesen, den ich erschütternd fand, aber dessen Grundannahme mir nicht richtig erscheint. Darin geht es um Algorithmen, die Vorurteile haben. Da das Thema dem für mich ausschlaggebenden Grund für die Reihe ‚Frauen der Informatik‘ nicht ganz unähnlich ist, greife ich das Thema auf. Denn ich denke nicht, dass es die Algorithmen oder deren Entwickler und umsetzende Programmierer sind, die die Vorurteile haben. Ein Rant.
Ein Artikel, eine Überschrift, eine (falsche?) Annahme
Auf Golem.de wurde neulich der SZ-Artikel Wenn Algorithmen Vorurteile haben vom 15. Januar geteilt, der mich aufgrund von zwei Umständen aufgerüttelt hat. Zusammenfassend geht es darum, dass Diskriminierung uns überall in der Netzwelt begegnet. Zwei Beispiele dafür sind die Eingaben von Schlüsselwörtern in der Suchmaschine Google. Bei der Eingabe von „Women should “ ergänzt die Software die Schlüsselwörter mit Vorschlägen wie „Women should be slaves“ oder „Women should be in the kitchen“. Diskriminierung at its best, ladies and gents. Ebenso schlimm das Beispiel, dass Google Schwarze durchaus schon mal automatisch mit dem tag Gorilla versehen hat, also mit Tieren gleichgesetzt hat.
Im Artikel wird daher die Behauptung aufgestellt, dass die Ursache dieser diskriminierenden Ergebnisse die Algorithmen sind, nach denen die Technik arbeitet. Und die werden schließlich von Programmierern programmiert. Weil es das ja ist, was Programmier tun. Und wenn Programmierer ein diskriminierendes Weltbild haben, dann sind sie eben Schuld an solchem Quatsch.
Im Artikel heißt es
„Doch jeder Algorithmus wird von Menschen programmiert, die Teil bestimmter Gesellschaftsschichten sind und ihre – meist unbewussten – Neigungen und Vorurteile in ihre Arbeit einfließen lassen. Und je stärker die Welt von Technik getrieben wird, desto stärker zeigt sich, dass das ein Problem ist.“ („Wenn Algorithmen Vorurteile haben“, SZ, 15. Januar 2016)
Wenn Algorithmen nicht so vorurteilsbehaftet handeln sollen wie Menschen, gibt es nur eine Lösung: Die Entwickler selbst müssen sich des Problems bewusst werden – und zwar schon in ihrer Ausbildung. Und auch die Nutzer sollten im Hinterkopf behalten, dass jeder Algorithmus, den sie nutzen, nicht im luftleeren Raum entstanden ist, sondern von einem Menschen programmiert wurde, der nicht frei von Fehlern und Vorurteilen ist. („Wenn Algorithmen Vorurteile haben“, SZ, 15. Januar 2016)
Vielen Dank für diese Abschlussworte – Programmierer sind in der Tat genau solche fehlerbehafteten Menschen wie alle anderen. Und ich stimme zu, dass die Ausbildung das Bewusstsein für Themen wie Datenschutz und Diskriminierung schärfen muss, aber die gewählten Beispiele im Artikel wie der Algorithmus von Google sind keine echten, fachlichen Beispiele um diesen Sachverhalten zu untermauern. Die oben zitierten Aussagen sind daher meines Erachtens nach in diesem Kontext falsche Annahmen.
Haben Algorithmen wirklich Vorurteile?
Nein. Wie auch? Ein Algorithmus ist eine penibel und logisch auf einzelne Schritte heruntergebrochene Anleitung wie was zutun ist. Wenn es kleinstmöglich aufgedröselt ist und logisch vollständig, kann man es programmieren. Es ist quasi das Rezept. In der Welt von Programmierung und Algorithmen gibt es keine Diskriminierung, sondern Einsen und Nullen. Oder halt Befehle, wenn zwei, drei Ebenen höher schaut. Es besteht die Gefahr, dass ein Programmierer tatsächlich seine Meinungen hineinprogrammiert und den Algorithmus so schreibt, dass hinten was diskriminierendes rauskommt. Genauso wie jeder eine Hetzschrift verfassen, ausdrucken und überall verteilen kann. Aber der Artikel beschäftigt sich hauptsächlich mit Algorithmen von Google und anderen Suchmaschinen, die uns Suchvorschläge generiert, die wir sehen, während wir noch tippen. Weder Algorithmus, noch Entwickler können etwas dafür, was dem Nutzer angezeigt wird. Der Google-Algorithmus zeigt diese Vorschläge basierend auf dem Suchverhalten der Nutzer deiner jeweiligen geografischen Region an. Heißt: die Vorurteile sind nicht die des Programmierers, sondern die der Menschen um dich herum. Die Algorithmen konservieren allerdings die Vorurteile der Nutzer. Heißt: wenn was geändert werden muss, dann ist es das Verhalten und Denken der Nutzer. Zum nachlesen der technischen Details: auf searchengineland wird erklärt wie bspw. der Google-Algorithmus tickt.
Nimmt man das ebenso sehr schmerzhafte Beispiel mit der Gorilla-Vertaggung, dann liegt der Hund höchstwahrscheinlich in der Bilderkennungssoftware begraben. Die hat vermutlich irgendwann sehr aufwendig gelernt an welchen Merkmalen man in einem Bild einen Baum, ein Hochhaus, ein menschliches Gesicht oder eben einen Gorilla erkennt. Den Gorilla hat er möglicherweise an den Merkmalen ‚ovales Gesicht mit zwei Augen und einem Mund und dunkler Farbe‘ erkannt. Klingt nicht falsch, oder? Jetzt geht er los und taggt von da an unschuldig alles mit diesen Merkmalen als Gorilla und ist sich keiner Schuld bewusst, weil 1. kein Bewusstsein und 2. deswegen keine Ahnung von Diskriminierung. Wer hier die Schuld trägt, sind die Entwickler, die nicht gründlich genug getestet haben. Ich als Entwickler kann euch sagen, dass mit Sicherheit extrem viel getestet wurde, die Tragweite solcher Spielereien ist groß, die Firma auch, also wird viel getestet. Nur technisch ist das nicht immer so einfach. Google konnte das Problem des Algorithmus nicht unterbinden, zumindest nicht schnell. Deswegen wurde der Tag Gorilla einfach entfernt. Und im Falle der Suchwort-Vorschläge gibt es eigentlich sehr klare Maßnahmen, was rausfliegt und dem Nutzer nicht angezeigt werden soll (siehe Link Abschnitt „Hate Speech & Protected Groups“). Problem nur: temporäres Entfernen schön und gut, aber die Menschen werden weiterhin googeln und Aussagen eingeben, die den anderen nicht schmecken.
Du hast die Wahl: das Denken ändern oder Zensur
Um all diesen Ärger zu unterbinden, könnte man jetzt sagen: Benutzerfreundlichkeit und Wettbewerb hin oder her. Dann kommen die Features halt weg. Keine automatischen Vorschläge mehr, keine Auto-Vertaggung. Aber das wäre nur Kosmetik, das Problem sitzt tiefer. Ab hier wirds schwierig: mit aufwendigen Tests wird geschaut, dass man in keine rechtlichen Probleme um schützenswerte Gruppen und Minderheiten läuft. Aber gerade bei dem Dilemma mit den populären, aber diskriminierenden Suchanfragen wird deutlich: man kriegt es nicht weg, denn es ist in dem Denken der Menschen verankert. Man könnte anfangen bestimmte Schlüsselwörter auf eine schwarze Liste zu setzen und sie aus den Vorschlägen zu verbannen. Aber auch da können Fehler passieren und plötzlich kann ich ein Filmzitat nicht ergoogeln, weil da ein solches geblocktes Wort vorkommt. Oder mein Blog wird gesperrt, weil da neulich in einem Artikel ein Wort vorkam, das so ähnlich geschrieben wird wie … was böses. Was dann? Dann schreien alle Zensur und finden’s auch doof. Das ist ein Dilemma – ein richtig, richtig böses. Aber das hat sehr viel weniger damit zutun, was ein Programmierer denkt und fühlt, sondern viel mehr damit, was ein Nutzer denkt.
Habt ihr euch schon Mal durch Software diskriminiert gefühlt? Und wenn ja, habt ihr dann gedacht, dass der Programmierer diskriminierend sein muss und ein ärmseliges Weltbild hat? Wie empfindet ihr den Artikel der SZ und meine Reaktion darauf? Zum Schluss noch ein Statement: Ja, ich bin Softwareentwicklerin und deswegen kommt meine Pikiertheit nicht von ungefähr. Aber meine fachliche Einschätzung eben auch nicht.
Netzgeflüster ist eine Kategorie meines Blogs in der ich mich immer zwischen dem 10. und 15. eines jedes Monats Themen rund um IT, Forschung, Netzwelt, Internet und eben auch Gerüchten widme. 🙂
Schreibe einen Kommentar