Magazin #1 | Sommer 2022
KI als Gemeinschaftsaufgabe denken
Interview mit Dr. Alex Hanna
Die Soziologin Alex Hanna untersucht, wie der Einsatz von Daten in neuen Technologien dazu beiträgt, dass sich vorhandene Ungleichheiten im Hinblick auf Gender, Ethnizität und Klasse verschärfen. Wir haben mit ihr darüber gesprochen, warum sie ihren Job im Ethik-Team von Google aufgegeben hat, um sich ihrer früheren Vorgesetzen Timnit Gebru anzuschließen – die zuvor bei Google entlassen worden war.
Interview mit Dr. Alex Hanna
Die Finanz- und Fördermittel konzentrieren sich dort. Google, Microsoft oder auch Facebook finanzieren ausschließlich Forschung, die bestehenden wissenschaftlichen Paradigmen folgt und auf die Optimierung ihrer Geschäftsmodelle ausgerichtet ist. Das ist entweder direkt oder indirekt der Fall, also entweder durch die Art der wissenschaftlichen Artikel, die sie veröffentlichen, oder durch die Förderprojekte, die sie an Universitäten, gemeinnützige Organisationen oder auch unter dem Label AI for Good vergeben. Die Förderung gibt vor, an welchen Problemen die Forscher*innen arbeiten. Die Konzerne fördern keine Projekte, die nicht im Einklang mit ihren Inter essen stehen, oder nur in sehr begrenztem Ausmaß.
Sie ist ein Teil des Problems, wenn sie dazu benutzt wird, Macht zu gewinnen und Macht zu konsolidieren. Ihr gegenwärtiger Einsatz verschärft die existierende Ungleichheit. Die großen Tech-Konzerne nutzen sie vor allem für Empfehlungssysteme, Zielgruppenwerbung und um zu vermeiden, dass Kund*innen abwandern, kurz: zur Optimierung ihrer Geschäftsmodelle. Im öffentlichen Sektor wird KI eingesetzt, um den Arbeitsaufwand für die Bewilligung von Sozialleistungen zu minimieren oder Betrug aufzudecken. Gleichzeitig entwickelt sie sich aber zu einem Überwachungsinstrument. Im wirtschaftlichen Kontext verschlimmert sie die Bedingungen, unter denen Menschen arbeiten müssen, entweder indem sie ein neues Prekariat von Arbeiter*innen schafft, die Daten für KI generieren, oder indem sie als Taktgeberin bei der Plattformarbeit fungiert.
Menschen, deren Leben durch KI und automatisierte Entscheidungssysteme betroffen sind, müssen einen größeren Einfluss darauf ausüben können, wie diese Systeme eingesetzt werden. Wir fangen damit an, indem wir die betroffenen Gemeinschaften in unsere Forschungsaktivitäten ein beziehen.
Wenn wir KI neu denken, müssen wir darüber nachdenken, was die Betroffenen wirklich brauchen, vor allem wenn es um Gruppen geht, die durch rassistische oder sexistische Vorurteile marginalisiert werden. Manche KI-Instrumente könnten genutzt werden, um diesen Gemeinschaften etwas von ihrer Entscheidungsgewalt zurückzugeben oder sie zumindest bei ihren Entscheidungen zu unterstützen. In diese Richtung gehen einige unserer Projekte. Wir untersuchen zum Beispiel in Südafrika, wie sich räumliche Apartheid mit hilfe von KI rückgängig machen lässt. In einem anderen Forschungsprojekt beschäftigen wir uns damit, wie KI und Tools zur Verarbeitung von natürlicher Sprache verwendet werden können, um hetzerische Social-Media-Konten von Regierungsvertreter*innen ausfindig zu machen. Wir versuchen also, neue Ansätze für den Einsatz von KI zu finden, die der Machtkonzentration entgegen wirken und den Menschen ein wenig Selbstbestimmung zurückgeben.
Hintergrund
Gefährliches Nachplappern: Was richten Riesen-sprachmodelle an?
Veröffentlicht 2021 | Timnit Gebru, Emily Bender und weitere Autor*innen
Im 2021 veröffentlichten Paper „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“ („Die Gefahr stochastischer Papageien: Können Sprachmodelle zu große sein?“) erörtern Timnit Gebru, Emily Bender und weiteren Autor*innen die Risiken, die von sehr großen Sprachmodellen ausgehen. Diese gerade sehr beliebten KI-Modelle werden mit enormen Mengen an Textdaten trainiert. Sie sind unter den richtigen Voraussetzungen erstaunlich gut darin, Sinngehalt aus Sprache abzuleiten und ihrerseits Texte zu produzieren, die Sinn zu ergeben scheinen.
Schädlicher als Fliegen
Die in Stochastic Parrots ausgeführte Analyse baute auf vorangegangener Forschungsarbeit auf, vor allem ein 2019 erschienenes Paper von Emma Strubell, Ananya Ganesh und Andrew McCallum über die Kohlendioxid-Emissionen und finanziellen Kosten von sehr großen Sprachmodellen: „Energy and Policy Considerations for Deep Learning in Natural Language Processing“ („Deep Learning und natürliche Sprachverarbeitung: gesellschaftliche und energiepolitische Erwägungen“). Um große KI-Modelle trainieren zu können, ist eine gewaltige Rechenleistung nötig, womit wiederum ein immenser Strombedarf verbunden ist. Ihr Energieverbrauch und ihre CO2-Bilanz sind seit 2017 ausgeufert, da das in die Modelle eingespeiste Datenvolumen immer größer geworden ist. Ein Trainingsdurchlauf für eine Version von Googles Sprachmodell BERT, das sehr wichtig für die Funktion der Suchmaschine ist, setzt gut 700 Kilo CO2 frei, also ungefähr so viel wie ein Rundflug zwischen New York City und San Francisco. Solche Modelle werden allerdings etliche Male während des Forschungs- und Entwicklungsprozesses trainiert.
Die Vervielfältigung sozialer Spaltungen
Timnit Gebru und ihre Co-Autor*innen geben in ihrem Paper zu bedenken, dass nur reiche Unternehmen Zugang zu den Ressourcen haben, die notwendig sind, um solch große KI-Modelle zu bauen und zu pflegen. Die Folgen der Klimakrise, die auch durch einen exzessiven Energieverbrauch ausgelöst werden, treffen hingegen besonders marginalisierte Gemeinschaften. Die Trainingsdaten für die Modelle werden üblicherweise im Internet gesammelt, so dass das Risiko besteht, dass rassistischer, sexistischer oder ähnlich abwertender Sprachgebrauch darin Eingang findet. Da die Datensätze so groß sind, ist es nahezu unmöglich, diskriminierende Sprachmuster zu finden und herauszufiltern. Daraus folgern die Autor*innen, dass große Modelle Sprache in einer Weise interpretieren, die überholte gesellschaftliche Normen und Diskriminierungsmuster reproduziert. Die Modelle würden zudem die Sprache und Normen von Ländern und Kulturen ausblenden, in denen das Internet weniger verbreitet ist, weshalb ihr linguistischer Abdruck dort deutlich kleiner ist.
Die Kosten des Profits
Ein weiteres Problem sehen die Autor*innen des Stochastic Parrots in einem „fehlgeleiteten Forschungsverständnis”, das sich hinter großen Sprachmodellen verstecken kann. Diese Modelle verstünden Sprache nämlich nicht wirklich. Sie errechnen die Wahrscheinlichkeit, dass bestimmte Wortsequenzen für uns Sinn ergeben und plappern die Wörter auf dieser Grundlage bloß nach. Sinn ist allerdings etwas, das innerhalb einer Sprachgemeinschaft verhandelt wird. Wenn Sinn als maschinell ermittelbares, objektives Ergebnis definiert wird, besteht die Gefahr, dass Sprache durch diese Pseudo-Objektivität von KI manipuliert wird. Die Investitionen der großen Tech-Konzerne in KI sind insofern per se heikel, dass sie auf Profite ausgerichtet sind. Gesellschaftlich wäre es allerdings wünschenswerter, KI-Modelle zu entwickeln, die ein wechselseitiges Verständnis fördern und Energie sparen, indem sie mit kleineren und besser kuratierten Datensätzen zu guten Ergebnissen gelangen. Timnit Gebru und ihre Mitstreiter*innen sind allerdings pessimistisch, dass es auf Seiten der Konzerne zu einem Umdenken und einer Abkehr vom reinen Profitdenken kommt, obwohl der vorgegaukelte Sinngehalt der Sprachmodelle eine weitere Gefahr mit sich bringt: Sie könnten als Instrument missbraucht werden, um Desinformationen zu streuen.
Im Dezember 2021: Gründung des Distributed AI Research Institute (DAIR)
Am Jahrestag ihrer Entlassung bei Google, veröffentlichte Timnit Gebru eine Pressemitteilung, in der sie die Gründung des Distributed AI Research Institute (DAIR) verkündete. Das DAIR soll als unabhängiges Institut bei der Erforschung, Entwicklung und Implementierung von KI den Einflussbereich der großen Tech-Konzerne eindämmen und stärker die Bedürfnisse von betroffenen Gemeinschaften berücksichtigen. Timnit Gebru will mit ihrem Institut die Prozesse und die Prinzipien der aktuellen KI-Forschung hinterfragen. Ihre Arbeit stützt sich auf den Gedanken, dass die mit KI-Technologie einhergehenden Schäden verhindert werden können, wenn der Einsatz von KI die Interessen verschiedener Communitys und eine Vielfalt an Perspektiven stärker einbeziehen würde.
Bei einem aktuellen Projekt verwendet das Institut Satellitenbilder und Bilderkennungssoftware, um die Folgen der Apartheid in Südafrika zu analysieren. Bei Datasheets for Datasets, einem weiteren Projekt des DAIR, geht es darum, beim Maschinellen Lernen weitgehend inexistente Branchenstandards bei der Dokumentation von Datensätzen zu etablieren. Im Bereich des Maschinellen Lernens sollen Forschende und Praktiker*innen dadurch ein größeres Bewusstsein für notwendige Transparenz- und Rechenschaftspflichten entwickeln, Bias in ML-Modellen vermindern und bei der Auswahl passender Datensätze unterstützt werden.
Chronik einer angekündigten Trennung
Die Entwicklungen, die zur Gründung des DAIR-Instituts führten, erzählen nicht bloß die Geschichte eines Rauswurfs. Sie werfen die Frage auf, ob die großen Tech-Konzerne eine toxische Arbeitsumgebung schaffen.
Am 2. Dezember 2020 verkündete Timnit Gebru, die stellvertretende Leiterin des KI-Ethikteams bei Google, per Twitter, dass das Unternehmen sie rausgeworfen habe. Sie war 2018, als sie noch für Microsoft arbeitete, als Co-Autorin der bahnbrechenden Studie „On the gender and racial biases embedded in commercial face recognition systems” („Genderbasierter und rassistischer Bias in kommerziellen Gesichtserken nungssystemen”) bekannt geworden. In der Studie ging es darum, dass Gesichtserkennungstools Frauen und People of Color weniger verlässlichidentifizieren und potenziell diskriminieren. Timnit Gebru ist eine der Mitgründer*innen der Gruppe Black in AI, die sich für mehr Diversität in der Tech-Industrie einsetzt. In ihrer kritischen Arbeit fordert sie häufig gängige Praktiken in der KI- und TechIndustrie heraus.
Der Rauswurf von Timnit Gebru war letztlich die Konsequenz eines Konflikts, der sich an einem Artikel entzündet hatte, an dem sie als Mitautorin beteiligt war. Ihre Vorgesetzten bei Google forderten sie auf, entweder von der Veröffentlichung abzusehen oder den Namen aller Google-Mitarbeiter*innen auf dem Artikel zu entfernen (fünf der sechs Autor*innen). Jeff Dean, der Leiter von Google AI, schrieb in einer internen E-Mail (die er später auf Twitter teilte), dass der Artikel „nicht unseren Anforderungen an eine Publikation entspricht, da es die relevante Forschung nur unzureichend berücksichtigt“. Im Artikel sind allerdings 128 Forschungsreferenzen aufgeführt. Bei anderen KI-Ethiker*innen fachte dieser Umstand Spekulationen darüber an, ob Google Timnit Gebru nicht einfach loswerden wollte, weil ihr Text unangenehme Wahrheiten über ein zentrales Forschungsfeld des Unternehmens enthält. Über 1.400 Google-Mitarbeiter*innen und 1.900 weitere Unterstützer*innen unterzeichneten daher nach der Entlassung einen Protestbrief.
Der Artikel, um den es ging, trägt den Titel „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?“ („Über die Gefahren stochastischer Papageien: Können Sprachmodelle zu groß sein?“). Er sollte eine Bestandsaufnahme darüber sein, wie es um die Forschung zur Verarbeitung von natürlicher Sprache geht. Google hat einen Großteil der Grundlagenforschung auf dem Gebiet großer Sprachmodelle geleistet: 2017 wurde sowohl das Transformer language model vorgestellt, das die Basis für das spätere GoogleModell BERT werden sollte, als auch für die von OpenAI entwickelten Modelle GPT-2 und GPT3. BERT bildet inzwischen das Fundament für die Google-Suche, der Haupteinnahmequelle des Unternehmens. Führende KI-Ethiker*innen befürchten, dass das Vorgehen von Google einen abschreckenden Effekt auf die zukünftige Forschung zur KI-Ethik haben könnte. Denn viele der Forschenden in diesem Themenfeld sind bei den großen Tech-Konzernen beschäftigt.
Das KI-Ethikteam bei Google hatte inzwischen zwei weitere Abgänge zu verkraften. Die leitende Forscherin Alex Hanna und Dylan Baker aus der Software-Entwicklung haben sich Timnit Gebru und ihrem gemeinnützigen DAIR-Forschungsinstitut angeschlossen. In ihrer Ankündigung auf Medium, dass sie Google verlässt, nutzte Alex Hanna die Gelegenheit, um das „toxische” Arbeitsumfeld bei Google zu kritisieren. Daneben beklagte sie den Mangel an Diversität in den Forschungseinrichtungen bei Google, vor allem das Fehlen von schwarzen Frauen. Sie kam zu dem Schluss, dass die Tech-Riesen ein „Whiteness“-Problem haben und für People of Color ein schreckliches Arbeitsumfeld bieten.
DR. ALEX HANNA
Forschungsleiterin am Distributed AI Research Institute (DAIR)
Sie beschäftigt sich mit KI-Ethik und sozialen Bewegungen. Außerdem ist sie Vizepräsidentin der Vereinigung Sociologists for Trans Justice und Senior Fellow am Center for Applied Transgender Studies. Sie sitzt bei der Human Rights Data Analysis Group im Beirat und im Scholars Council des UCLA Center for Critical Internet Inquiry.