Skip to main content
#1InterviewRessourcenverbrauch

Gefangen in einer untragbaren Infrastruktur

Magazin #1 | Sommer 2022

Gefangen in einer untragbaren Infrastruktur

Interview mit Prof. Dr. Aimee van Wynsberghe

KI-Systeme bestehen nicht nur aus Daten, Knoten in Netzwerken oder Rechencode – wie beliebte Visualisierungen es uns glauben machen wollen. Hinter ihnen verbirgt sich die Ausbeutung natürlicher und sozialer Ressourcen. Die KI-Ethikerin Aimee van Wynsberghe hält Regulierung für den einzigen Weg, die großen Tech-Unternehmen für die versteckten Nachhaltigkeitskosten von KI zur Verantwortung zu ziehen.

Interview mit Prof. Dr. Aimee van Wynsberghe

In Ihrem Artikel über nachhaltige KI unterscheiden Sie zwischen KI für Nachhaltigkeit und der Nachhaltigkeit von KI. Warum ist es wichtig, über die Nachhaltigkeit von KI zu sprechen?

Ich wollte die Menschen daran erinnern, dass eine physische Infrastruktur notwendig ist, um KI-Technologie herzustellen und einzusetzen. Und diese physische Infrastruktur ist zum gegenwärtigen Zeitpunkt alles andere als nachhaltig, da sie Kohlendioxid-Emissionen zur Folge hat. Wenn Algorithmen trainiert und eingesetzt werden, benötigen wir außerdem für die dafür notwendige Infrastruktur Mineralien. Diese Mineralien stecken in Batterien und Mikroprozessoren. Die Bedingungen, unter denen Menschen arbeiten müssen, um diese Mineralien zu gewinnen, sind furchtbar. Deswegen werden sie auch „Blutmineralien” genannt. Auch die für die Infrastruktur notwendige Wasser- und Landnutzung ist problematisch. Und was machen wir mit all dem Elektroschrott, den Servern? Wir laden sie in asiatischen Ländern ab und die Menschen dort leiden unter den Umweltfolgen. Was ich also mit der Unterscheidung zum Ausdruck bringen wollte: Es reicht nicht zu sagen, dass wir die Technologie einsetzen wollen, um nachhaltiger zu leben, wir müssen überprüfen, ob sie selbst nachhaltig ist.

Der Diskurs über KI für Nachhaltigkeit ist sehr lebendig. Warum ist das beim Diskurs über die Nachhaltigkeit von KI nicht so?

Erst wenn wir die versteckten Kosten aufgedeckt haben, können wir sagen, wie teuer uns KI zu stehen kommt. Das würde die Blase zum Platzen bringen, die Unternehmen wie Google, Amazon, Facebook und Apple geschaffen haben. Es hat aber strategische Gründe, die wirklichen Kosten zu verbergen, denn Europa hat allein 2020 3,2 Milliarden Euro in KI investiert. Die großen Konzerne wollen sich der Verpflichtung entziehen, diese Kosten zu dokumentieren und ihre Beschaffungsketten offenlegen zu müssen. Der Diskurs über die Nachhaltigkeit von KI geht nicht voran, weil a) die großen Konzerne nicht am damit verbundenen Aufwand interessiert sind und b) wir es uns nicht eingestehen wollen, dass die verborgenen ökologischen Kosten sehr viel größer sind als wir glauben mögen. Der Diskurs lahmt aber bereits durch die schiere Komplexität des Problems. Darüber hinaus lässt sich unsere Gesellschaft nur ungern ihren Enthusiasmus für KI-Technologie trüben. Ökologische Folgekosten passen da einfach nicht ins Bild.

Glauben Sie, dass die großen Tech-Unternehmen dieses Problem in absehbarer Zeit angehen werden?

Nein, uns wird wahrscheinlich nichts anderes als Regulierung übrigbleiben. Wenn wir es den Unternehmen überlassen wollen, dürfen wir nicht vergessen, dass es ihnen in erster Linie um Gewinne geht. Sie sind ihren Aktionär*innen gegenüber in der Bringschuld und richten KI-Ethikräte bloß strategisch ein, um sich einen verantwortungsbewussten Anstrich zu geben. Wenn wir die großen Konzerne dazu bringen wollen, die ökologischen Folgen von KI zu ermitteln, brauchen wir Regulierung. Erst dann können wir beurteilen, wie ernst die Lage wirklich ist.

Wie ernst ist denn die Lage?

Wir müssen sofort handeln. Der jüngste IPCC-Bericht hat für die Menschheit Alarmstufe Rot ausgerufen. Wir müssen jede Technologie, die wir nutzen, daraufhin überprüfen, welche Folgen sie für die Umwelt hat. Auf der ganzen Welt wurden bereits Milliarden in KI investiert, in jeder erdenklichen
Branche. Das betrifft nicht nur
die Algorithmen, sondern auch die  Infrastruktur, auf der sie beruhen. Es gibt keinen Weg mehr zurück. KI ist eine so um sich greifende Technologie, dass sie global allgegenwärtig geworden ist. Wenn wir nicht sofort handeln, werden die Emissionen nicht mehr zu stoppen sein, da die Infrastruktur selbst nicht nachhaltig ist. Die Folgen werden für die ganze Weltgemeinschaft zu spüren sein.

Es ist oft zu hören, dass es für Branchenakteure nicht so einfach wäre, den Nachweis für die Nachhaltigkeit von KI zu erbringen. Glauben Sie, dass es für die Industrie machbar wäre, nachhaltige KI zu designen und herzustellen?

Ich höre in Diskussionen rund um KI und Ethik oft, dass ethische Bedenken bloß die KI-Innovation aufhalten würden, weil damit unweigerlich diese ärgerlichen Kontrollmechanismen einhergingen. Dabei setzen wir uns bloß dafür ein, soziale und ökologische Standards für Innovationen festzulegen. Warum sollte das Innovationspotenziale eindämmen? Vor nicht allzu langer Zeit schien KI selbst ein Ding der Unmöglichkeit zu sein und nun ist sie überall. Warum sollte es so eine unüberwindliche Hürde sein, KI auf die richtige Art und Weise einzusetzen? An dieser Stelle kommt dann die Regulierung ins Spiel. Die Regierungen, die Europäische Kommission und das Europäische Parlament müssen die großen Tech-Konzerne dazu verpflichten, die von ihnen verursachten Kohlendioxid-Emissionen nachzuverfolgen und zu messen. Die Konzerne müssen auch etwas an den Bedingungen ändern, unter denen sie die infrastrukturell notwendigen Mineralien beschaffen, auch wenn es schwierig ist. Wenn es nicht nachhaltig geht, dann dürfen wir es nicht machen. Aber wir können Innovationen finden, mit denen es auch nachhaltig geht.

Auf europäischer Ebene wird gerade eine mögliche KI-Verordnung diskutiert. Sie soll die mit KI verbundenen Risiken eindämmen und fundamentale Grundrechte stärken. Was halten Sie von der Verordnung in ihrer jetzigen Fassung?

Für Nachhaltigkeit bringt sie rein gar nichts. Mein größtes Problem mit der KI-Verordnung ist, dass sie ökologische Risiken gar nicht als Risiken begreift, die einer Risikoeinschätzung bedürfen. Die Nachhaltigkeit von KI muss transparenter werden. Dann könnten wir endlich über CO2-Höchstgrenzen oder Grenzen für Trainingsdurchgänge sprechen, bei denen eine bestimmte Zeit lang nur eine gewisse Anzahl von GPUs für das Training der Algorithmen verwendet werden darf. Dafür brauchen wir aber Daten darüber, wieviel Strom beim Algorithmustraining verbraucht wird oder wieviel Wasser benötigt wird, um die Server zu kühlen. Ohne die entsprechenden Daten bewegen wir uns im Reich der Spekulation. Darum setze ich mich für verbindliche Mess- und Transparenzvorgaben ein.

Hintergrund

Indirekter Ressourcen­verbrauch

Dimension:

Ökologische Nachhaltigkeit

Kriterium:

Indirekter Ressourcenverbrauch

Indikator:

Kennzahlen des Verwertungsbetriebs

Um Computerhardware zu produzieren, werden sogenannte Konfliktrohstoffe oder Konfliktmineralien benötigt – seltene Erden oder Edelmetalle, deren Abbau mit Menschenrechtsverletzungen, verheerenden Arbeitsbedingungen und Umweltverschmutzungen einhergeht. Wenn bei der Entsorgung der Hardware die darin enthaltenen Wertstoffen zurückgewonnen werden, müssen sie nicht für neue Hardware erneut abgebaut werden. Zertifizierte Recycling-Fachbetriebe können die Hardware in die enthaltenen Wertstoffe auftrennen und so wiederverwertbar machen. Alternativ kann gebrauchte Hardware von Original Equipment Manufacturers (OEMs) oder Aufarbeitungsunternehmen gesammelt und wiederverwendet werden. Sie entnehmen einzelne Hardwarekomponenten und setzen sie in gebrauchte oder neue Produkte wieder ein. Der gewichtsmäßige Anteil von recycelten oder wiederverwendeten Materialien ist eine wichtige Kennzahl, um die ökologische Nachhaltigkeit von Hardware zu beurteilen.

Arbeitsbedingungen und Arbeitsplätze

Dimension:

Ökonomische Nachhaltigkeit

Kriterium:

Arbeitsbedingungen und Arbeitsplätze

Indikator:

Faire Löhne entlang der Wertschöpfungskette

Problematische Arbeitsbedingungen bei der Entwicklung von KI existieren nicht nur bei der Hardwareproduktion, sondern auch bei der Datenaufbereitung. Die Datensätze, die für das Training von KI-Systemen benötigt werden, müssen meist erst von sogenannten Crowd- oder Clickworkern gelabelt, das heißt klassifiziert und annotiert werden. Diese Menschen bearbeiten oft unter prekären Bedingungen massenhaft kleine Aufgaben am Computer (per Klick), ohne fest angestellt zu sein. Bei der Entwicklung als auch beim Einkauf von KI sollte darauf geachtet werden, dass die Arbeitsbedingungen entlang des gesamten Lebenszyklus einer KI fair sind. Das beinhaltet eine angemessene Entlohnung, gute Arbeitsbedingungen oder auch Aufstiegs- und Weiterbildungsmöglichkeiten – auch für Clickworker.

Desirable Digitalisation

Beim Projekt Desirable Digitalisation: Rethinking AI for Just and Sustainable Futures wird KI-Entwicklung auf der Grundlage ethischer Prinzipien untersucht. Unter der Leitung von Prof. Aimee van Wynsberghe arbeiten Wissenschaftler*innen mit der KI- Industrie zusammen, um nachhaltige und gerechte Prinzipien für das Design und die Bildung von KI zu entwickeln. Das Projekt startete im April 2022 und hat eine Laufzeit von fünf Jahren.

PROF. DR. AIMEE VAN WYNSBERGHE

Professorin für Applied Ethics of Artificial Intelligence an der Uni Bonn

Sie forscht in den Bereichen Informations- und Kommunikationstechnologie und Robotik. Nach Assistenzprofessuren in Twente und der Technischen Universität Delft trat sie 2020 eine Professur für Ethik und Technologie an der TU Delft an. Für ihre Forschungsarbeiten und ihren Beitrag zum wissenschaftlichen Dialog wurde die Philosophin 2018 mit einem L’Oréal UNESCO For Women In Science-Award ausgezeichnet. Im Februar 2021 trat sie die von der Alexander von Humboldt-Stiftung neu konzipierte Professur Applied Ethics of Artificial Intelligence an.