Netzgeflüster: „KI & Wir“ 1. Convention zu Künstlicher Intelligenz und Gender in Magdeburg

Als ich vor einigen Monaten den Veranstaltungskalender meiner Wahlheimat wälzte, sprang mir ein nebulös klingender Titel ins Auge: „Convention für KI & Gender“. Bitte was? Da verbergen sich zwei Schlagworte, die mich sehr ansprechen, die ich aber üblicherweise nicht als erstes in Kontext miteinander gesetzt werden: Künstliche Intelligenz und Gender. Ich arbeite in der IT-Industrie als Softwareentwicklerin und bin nebenbei in der Firma für die ich arbeite in einer Diversity-Arbeitsgruppe tätig. Von daher: Interesse geweckt. Kolleg*innen Bescheid gegeben. 🙂 Hingegangen.

 

Sieh dir diesen Beitrag auf Instagram an

 

Ein Beitrag geteilt von science2public (@science2public) am

KI & Wir

Vom 22. bis 24. November fand in der Festung Mark in Magdeburg die 1. Convention zu Künstlicher Intelligenz und Gender unter dem Titel KI & Wir statt. Wie man der offiziellen Webseite entnehmen kann, ist die Mutter des Gedankens der Leitsatz „Wo kommen wir denn dahin, wenn … ? #ChanceKI“, der auch schon das aktuelle Wissenschaftsjahr des Bundesministeriums für Bildung und Forschung zum Thema „Künstliche Intelligenz“ einen Rahmen gab. Organisiert und ins Leben gerufen wurde die Convention durch die Otto-von-Guericke-Universität Magdeburg und science2public – Gesellschaft für Wissenschaftskommunikation e.V. mit Unterstützung zahlreicher Partner und Wissenschaftler. Soweit so recherchiert. Eine liebe Kollegin und ich besuchten KI & Wir am ersten Convention-Tag. Wir waren gespannt, motiviert und waren angenehm überrascht wieviel wir geboten bekamen. Vor Allem in Anbetracht dessen, dass der Eintritt frei war.

Impulse

Für uns begann der Freitag mit einem Vortrag von Kristina Penner von der Organisation AlgorithmWatch über Entscheidungssysteme, deren Algorithmen automatisiert und regelbasiert Entscheidungen über menschliches Verhalten oder menschlichen Sachlagen treffen. Die Aufgabe von AlgorithmWatch ist Algorithmen in punkto gesellschaftlich relevanter Themen zu analysieren und sofern vorhanden ethische Konflikte aufzuzeigen (Quelle) wie in einigen prominenten Fällen geschehen. So beispielsweise im Falle des niederländischen Risikobewertungssystems SyRI (System Risk Indication), das in Hinblick auf Sozialbetrug Menschen als Risikobürger einstuft. Die Informationsgrundlage ist durch die sprichwörtliche Datenkrake gegeben und greift bei zahlreichen Ämtern ab – die Auswirkungen verletzen unter Umständen Menschenrechte warnt die Organisation. Ein anderer Fall ist Wenn Algorithmen über den Job entscheiden des österreichischen Arbeitsmarktservice (AMS), der u.a. das Geschlecht in die Kategorisierung von Arbeitssuchenden mit großen, mittleren und niedrigen Chancen angestellt zu werden einbezieht und danach Leistungen befürwortet oder eben nicht. Autsch. Sicherlich darf hier nicht der Faktor Mensch vergessen werden, der auf solche Systeme hören muss oder nicht. Oder? Gerade diese Unsicherheit ist beängstigend.

 

Sieh dir diesen Beitrag auf Instagram an

 

Unsere Convention „KI & Wir“ zum Thema „Künstliche Intelligenz und Gender“ hat begonnen! Gestern um 15 Uhr gab es den Startschuss. 3 Tage lang wird diskutiert: Wie objektiv kann eine KI der Zukunft sein? Internationale und nationale Forscher*Innen unterschiedlicher Disziplinen der KI und der Gender- und Diversityforschung haben wir zu Gast. Auch unseren Staatssekretär Thomas Wünsch durften wir bei der Eröffnung begrüßen. Auch DICH laden wir ein, Dir heute und/oder morgen das spannende Programm nicht entgehen zu lassen! Der Eintritt ist frei . . . #KI #künstlicheintelligenz #ai #artificialintelligence #future #technology #science #kiundwir #chanceki #wissenschaftsjahr2019 #economics #research #gender #diversity #speech #hiai

Ein Beitrag geteilt von science2public (@science2public) am

Außerdem hörten wir den Vortrag von Prof. Dr. Stolzenburg von der Hochschule Harz, der das Thema KI auf verschiedenen Ebenen tackelte. Er sensibiliseirte dafür welchen Herausforderungen sich KI in Hinblick auf Genderfragen und Bias stellt. Da ist einerseits für sprachverarbeitende Systeme die Aufgabe der Semantik. Das englische Wort doctor beispielsweise gibt keinen Aufschluss darüber, ob es sich um einen Arzt oder eine Ärztin handelt. Zudem erörterte er, dass der Mensch oftmals nicht in der Lage ist die in Zahlen kodierten Regeln zu verstehen, die eine KI aufbaut. Prominentes Beispiel sind hier immer wieder die Künstlichen Neuronalen Netze, die über verschiedene Ansätze des Maschinellen Lernens solche Regeln aufbauen, die doch für das menschliche Auge ein wirrer Zahlenhaufen aussehen. Während ich mit denen viel in meinem Studium gearbeitet habe, kannte ich den vom Prof. genannten Clever Hans Effect noch nicht, der aber sehr anschaulich zeigt wie leicht eine KI ganz andere Marker für eine Mustererkennung heranzieht und am eigentlich Ziel meilenweit vorbeischrammen kann. Als Lösungsansätze wurden Reasoning und Explainable AI vorgestellt. Danach erläuterten Vertreter der Gender/Diversity in Informatics Systems (GeDIS) Forschungsgruppe der Uni Kassel nochmal am Beispiel des Künstlichen Neuronalen Netzes wie eine KI lernt und ausgewählte Beispiele aus dem Bereich der Gesichtserkennung. Sie gingen insbesondere auf das Thema ein, dass oftmals eine Datengrundlage ohne Einverständnis der Personen erhoben wird (beispielsweise aus Dating Webseiten) und hinterfragen die wissenschaftliche Relevanz der Forschung. Haarsträubendes Beispiel: Deep neural networks are more accurate than humans at detecting sexual orientation from facial images von Yilun Wang, Michal Kosinski. 1. Wer braucht das? Und 2. Ist das nicht mehr Overfitting oder Zufall als alles andere?

Also für mich als Softwareentwicklerin …

Als ich den zuerst im Netz verbreiteten Titel KI & Gender las, konnte ich mir darunter erstmal eher wenig vorstellen und nur vermuten, dass Inklusion bzw Diskriminierung ein Thema sein könnte. Als das Programm rauskam, fühlte ich mich an Aufmerksamkeit heischende Berichterstattungen der Presse wie die über angeblich diskriminierende Programmierer erinnert, die mich schon vor Jahren verärgerten. Bei der schon vor längerer Zeit entfachten Debatte um Vorurteile und Bias, der mehr oder weniger unbemerkt in Algorithmen einfließt, ärgert mich immer wieder wie schnell Algorithmus mit Programmierer verwechselt wird. Als Softwareentwickler muss man sich darauf verlassen, dass man in einem ethischen Unternehmen arbeitet, das bestimmte Werte vertritt und hoffentlich nicht wirtschaftlich darauf angewiesen ist, ein Projekt umsetzen zu müssen, das diskriminiert. Bereits vor dem Vortrag habe ich mich oftmals gefragt, ob ich als Entwickler das überhaupt merken würde? Würde es ein Business Analyst merken, der mit dem Kunden die Fachlichkeit zerpflügt? Würde es ein Projektmanager in einem Pitch merken? Und was würden sie tun, wenn klar ist, dass das System, das sie entwickeln sollen diskriminiert? Ich hoffe Bedenken anmelden, besser machen oder stoppen?

Das heißt, desto mehr Personen und Fachlichkeit in einem System involviert ist, desto schwieriger ist es überhaupt mitzubekommen, was das System im Einzelnen an allen Stellen tut. Es ist durchaus möglich, dass Softwareentwickler gar nicht mitbekommen welche Regeln in ihr System eingepflegt werden. Daher stört mich der Begriff des angeblich diskriminierenden Softwareentwicklers sehr. Weil es sehr leicht ist mit dem Finger auf ein Element eines großen Teams zu zeigen. Dass die IT-Industrie eine große Verantwortung hat, sollte dieser und ihren Schnittmengen wohl aber bewusst sein. Beispielsweise in Hinblick auf Planung und Test – und das möglichst allumfassend. Für KIs und alle möglichen Experten- und Entscheidungssysteme, die eine KI unter der Haube haben, beginnt die Arbeit schon lange vor der ersten Code-Zeile bei der Auswahl von Trainingssets und Zieldefinition. Habe ich mein Gesichtserkennungs-System nie mit verschiedenen ethnischen Gruppen gefüttert … dann ist das mehr als schlecht. Und so war ich sehr gespannt, ob die Convention in dieselbe Kerbe schlägt oder facettenreich bleibt. Dankbarerweise war letzteres der Fall. In allen Vorträgen, die ich gehört habe, wurde das Problem als ein allgemeines und gesellschaftliches betrachtet, für das auf allen Ebenen (Anwender, Forscher, Entwickler, Planer) Bewusstsein herrschen muss. Wichtig wäre hier noch allgemeine Datensparsamkeit anzusprechen, zusätzlich zu der mehrfach geforderten Transparenz.

Nachschlag bitte?

Als Softwareentwicklerin die selber während des Studiums mit Künstlichen Neuronalen Netzen gearbeitet hat, waren für mich die einen oder anderen Ausführungen über Maschinelles Lernen zwar bekannt, die ganzen Anreize und Beispiele aus der aktuellen Forschung und Anwendung waren aber sehr spannend. Ist man in der Industrie beschäftigt, gehen öfter neue Trends aus der Forschung an einem vorbei, weswegen ich solche Angebote wie Konferenzen, Conventions oder wie auch immer man es nennen möchte, immer gern wahrnehmen möchte. Fasziniert hat mich die ganzheitliche Auseinandersetzung und wieviele Organisationen, Wissenschaftler und Bereiche auf dem Gebiet tätig sind – mehr davon! Natürlich bringt die Schnittstelle aus gesellschaftswissenschaftlichen und technischen Themen viele Meinungen zusammen und es ist nicht immer einfach beide zu beiden oder zu vereinen. Der eine oder andere Vortragende musste relativ kurzfristig entscheiden, ob man jetzt mehr auf die IT-Aspekte eingehen oder es lassen soll. Auch die eine oder andere Nachfrage aus dem Publikum und Diskussion ließ tief blicken, dass man sich eben doch daran stört, wenn nicht das Gendersternchen benutzt wird. Ich gestehe: alles andere zum Thema Gender finde ich interessanter als das Sternchen … aber jedem seine Meinung.

Der Titel 1. Convention zu Künstlicher Intelligenz und Gender mit Betonung auf dem „1.“ ist hoffentlich ein Versprechen, auch wenn Künstliche Intelligenz einmal nicht mehr Fokus des Wissenschaftsjahres ist. Ich sage Danke für die Convention und hoffe auf eine Wiederholung und dass das Angebot von vielen Menschen wahr genommen wurde, denn es ist mit Sicherheit ein enorm wichtiges Thema. Herrscht kein Bewusstsein für KI, dann jonglieren wir mit etwas, das wir wenig verstehen und lassen es zahlreiche Menschenleben auf nachlässige Weise maßgeblich beeinflussen.

Netzgeflüster ist eine Kategorie meines Blogs in der ich mich immer zwischen dem 10. und 15. eines jedes Monats Themen aus IT, Forschung, Netzwelt und Internet widme genauso wie Spaß rund um die Arbeit mit Bits und Bytes. 🙂

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert