Magazin #1 | Sommer 2022
Nachhaltigkeit von KI bewertbar machen
Nachhaltige KI respektiert die planetaren Grenzen, verstärkt keine problematischen ökonomischen Dynamiken und gefährdet nicht den gesellschaftlichen Zusammenhalt. Im Projekt SustAIn haben wir auf dieser Grundlage 13 Kriterien definiert, die Organisationen berücksichtigen sollten, um KI nachhaltiger zu produzieren und einzusetzen.
Soziale Nachhaltigkeit
Sozial nachhaltige Entwicklung und Anwendung von Künstlicher Intelligenz stellt den Menschen, die Gesellschaft und gerechte Lebensverhältnisse in den Mittelpunkt. Damit Menschen ein würdiges Leben führen können, müssen grundlegende Bedürfnisse wie die Nahrungsversorgung oder ein ausreichender Wohnraum erfüllt sein. Zugleich müssen sie Zugang zu Infrastrukturen wie Strom, Wasser oder zum Internet haben. Eine sozial nachhaltige Gesellschaft erlaubt es den Menschen, sich frei zu entfalten. Dem Befähigungsansatz des Ökonomie-Nobelpreisträgers Amartya Sen und der Moralphilosophin Martha Nussbaum zufolge muss eine nachhaltige gesellschaftliche Entwicklung den Menschen Verwirklichungschancen bieten. Sie müssen auf ein Fundament von materiellen und kulturellen Handlungsressourcen zurückgreifen können, um ihre Rechte wahrzunehmen.
Auch KI-Systeme müssen die Würde des Menschen wahren. Sie dürfen niemanden ausschließen, benachteiligen oder diskriminieren und die menschliche Autonomie und Handlungsfreiheit nicht einschränken. Werte wie Gerechtigkeit, Inklusion oder Freiheit müssen im Design, bei der Entwicklung und in der Anwendung von KI einbezogen werden. Insbesondere sollte auch die Fähigkeit, auf menschliche Art und Weise zu denken, zu argumentieren und zu handeln, nicht durch die Systeme eingeschränkt werden.
Transparenz und Verantwortungsübernahme
Wer KI nutzt oder mit ihr interagiert, sollte vorab darüber informiert worden sein, dass KI eingesetzt wird, und die daraus hervorgehenden Ergebnisse nachvollziehen können. Hierzu müssen zentrale Informationen zu KI-Systemen offengelegt werden und Verantwortlichkeiten für deren Ergebnisse geklärt sein.
Nicht-Diskriminierung und Fairness
Bei der KI-Entwicklung und -Anwendung sollte ein Bewusstsein für Fairness vorhanden sein. Außerdem sollte die KI regelmäßig auf mögliche Diskriminierungen hin überprüft werden.
Technische Verlässlichkeit und menschliche Aufsicht
Schwachstellen in KI-Systemen sollten systematisch über Risikobewertungen identifiziert werden. Zudem sollte eine hohe Datenqualität sichergestellt sein. Systemeingriffe durch Menschen sollten ermöglicht werden.
Selbstbestimmung und Datenschutz
Kleine Datensätze, Verschlüsselung oder ein Widerspruchsrecht bei der Verwendung personenbezogener Daten stärken neben weiteren Maßnahmen die informationelle Selbstbestimmung und den Datenschutz.
Inklusives und partizipatives Design
Endnutzer*innen, Betroffene und weitere Stakeholder*innen sollten am Designprozess der KI beteiligt werden. Die Teams in der KI-Planung und -Entwicklung sollten divers und interdisziplinär aufgestellt sein.
Kulturelle Sensibilität
Der Anwendungskontext einer KI muss in deren Entwicklung berücksichtigt werden. KI-Systeme sollten daher anpassbar und neu trainierbar sein, wenn sie in unterschiedlichen kulturellen Kontexten eingesetzt werden. Es sollte insbesondere auf lokale Wissensbestände und Datensätze zurückgegriffen werden.
Ökologische Nachhaltigkeit
KI wird häufig als wichtiges Werkzeug zur Bewältigung der Klimakrise gesehen. Die Einsatzmöglichkeiten von KI-Systemen sind breit gefächert: Sie sollen den Ressourcenverbrauch effizienter gestalten, eine effizientere Verkehrs- und Stadtplanung herbeiführen, ein nachhaltigeres Energiesystem kreieren oder auch die Erforschung neuer Materialien erleichtern. Für den Einsatz der Systeme sind allerdings seinerseits Rohstoffe notwendig. Zu den Materialien für die Chips und Platinen gehören seltene Erden, die aufwendig abgebaut werden müssen. Die fertige Hardware muss an den Einsatzort transportiert werden. In den Rechenzentren wird Energie aufgewendet, um KI-Systeme zu entwickeln und einzusetzen, gleichzeitig muss die IT-Infrastruktur gekühlt werden, um die Bauteile vor Schäden zu schützen. Die Hardware muss dennoch regelmäßig ausgetauscht werden, was wiederum zu neuem Materialbedarf und zu einer großen Menge von Elektroschrott führt. Eine unsachgemäße Entsorgung kann schlimmstenfalls schädliche Chemikalien freisetzen.
Generell zielt ökologische Nachhaltigkeit darauf ab, die Natur zu erhalten, um künftigen Generationen einen lebenswerten Planeten zu hinterlassen. Die unter anderem von Johan Rockström entwickelten „Belastbarkeitsgrenzen des Planeten“ legen Schwellen fest, deren Überschreiten unumkehrbare Umweltschäden nach sich ziehen würde. Auf viele dieser Belastungsgrenzen wirken KI-Systeme sich direkt oder indirekt aus. KI-Systeme sind das Gegenteil von ökologisch nachhaltig, wenn sie mehr Ressourcen verbrauchen, als durch ihren Einsatz geschont oder sogar reproduziert werden. Ne- ben dem Materialverbrauch für die Hardware sind ihr immenser Energieverbrauch und die damit verbundenen Emissionen ein Hindernis auf dem Weg zur ökologischen Nachhaltigkeit.
Energieverbrauch
Während der KI-Entwicklung sollte die Energieeffizienz erfasst und ggf. durch geeignete Methoden wie beispielsweise die Modellkomprimierung optimiert werden.
CO2- und Treibhausgasemissionen
Die CO2-Effizienz kann beispielsweise durch einen nachhaltigen Energiemix, die geeignete Wahl von Trainingszeitpunkt und -standort sowie durch eine Kompensation von anfallenden CO2-Emissionen erhöht werden.
Nachhaltigkeitspotenziale in der Anwendung
KI-Systeme können nachhaltig wirken, wenn sie in ihrer Entscheidungsfindung Nachhaltigkeit berücksichtigen – sie beispielsweise nachhaltige Produkte im Handel fördern oder sie den allgemeinen Ressourcenverbrauch minimieren.
Indirekter Ressourcenverbrauch
Um die Hardware zu produzieren, die für KI-Systeme notwendig ist, werden Ressourcen und Energie benötigt. Hier gilt es, auf eine ressourcenschonende und umweltfreundliche Produktion und Entsorgung zu achten.
Ökonomische Nachhaltigkeit
Ökonomische Nachhaltigkeit erweitert den Horizont wirtschaftlicher Aktivitäten: Statt Ökonomie nur auf die Befriedigung der Bedürfnisse der heute lebenden Menschen auszurichten, wird aus einer ökonomisch nachhaltigen Perspektive auch die Bedürfniserfüllung der zukünftigen Menschheit eingeplant. Dieser Bewusstseinswandel drängt sich vor dem Hintergrund der „Grand Challenges“ auf: der Klimakrise, dem fortschreitenden Biodiversitäts- und Artenverlust sowie der fortschreitenden Ressourcenknappheit. Im Zuge einer sozialökologischen Transformation stellen sich grundsätzliche Gerechtigkeitsfragen, da Produktions- und Konsumzyklen bestimmen, ob die Verteilung natürlicher Ressourcen mit einem menschenwürdigen und selbstbestimmten Leben in Einklang gebracht werden kann. Ökonomische Nachhaltigkeit bettet die Ökonomie zwischen sozialen und ökologischen Leitplanken ein. Vor diesem Hintergrund sind auch die Auswirkungen von KI-Systemen einzuordnen. Gerade Systeme, die weitreichende Auswirkungen auf die gesellschaftliche Wohlstandsverteilung (etwa bei der Vergabe von Sozialleistungen, Krediten oder Wohnraum) sowie auf ökonomische Strukturen und Dynamiken haben, müssen besonders verantwortungsvoll eingesetzt werden.
Marktvielfalt und Ausschöpfung des Innovationspotenzials
Um eine Konzentration in KI-Märkten zu verhindern, müssen faire Zugangsmöglichkeiten zur KI-Entwicklung geschaffen werden, zum Beispiel durch offene Datenpools, einen offenen Quellcode oder auch Schnittstellen (APIs).
Verteilungswirkung in Zielmärkten
Der Zugang zu KI-Anwendungen ist nicht allen Wirtschaftsakteuren gegeben. Es kommt mitunter zu Wettbewerbsverzerrungen oder Marktkonzentration. Hier könnte Inklusivität geschaffen werden, indem Modelle auch mit kleinen Datensätzen arbeiten oder kleine und mittlere Unternehmen durch Förderangebote in die Lage versetzt werden, KI einzusetzen.
Arbeitsbedingungen und Arbeitsplätze
Entlang der gesamten Wertschöpfungskette der KI-Entwicklung sollten faire Arbeitsbedingungen sichergestellt sein. Wenn KI am Arbeitsplatz eingesetzt wird, sollten vorab die Auswirkungen auf die Mitarbeitenden abgeschätzt und ggf. kompensiert werden.
Mehr dazu
Diese Kriterien haben wir in über 40 Indikatoren ausdifferenziert und operationalisiert
Nachzulesen sind sie im Diskussionspapier:
ANDREAS MEYER
… ist wissenschaftlicher Mitarbeiter am Distributed Artificial Intelligence Labor der TU Berlin und forscht dort unter anderem an Anwendungen von Machine- Learning-Verfahren zur Lastprognose und Nachhaltigkeit von KI-Systemen.
ANNE MOLLEN
… ist Senior Policy und Advocacy Managerin bei AlgorithmWatch. Dort arbeitet sie unter anderem zur Nachhaltigkeit von Systemen des automatisierten Entscheidens (ADM-Systeme). Weitere Schwerpunkte sind ADM-Systeme im Arbeitsleben und im öffentlichen Sektor.
FRIEDERIKE ROHDE
… ist Nachhaltigkeitsforscherin und Techniksoziologin am Institut für ökologische Wirtschaftsforschung (IÖW) und promoviert an der TU Berlin. Sie beschäftigt sich mit soziotechnischen Zukünften im Kontext des digitalen Wandels, sozialen Innovationen und algorithmischen Entscheidungssystemen.
JOSEPHIN WAGNER
… ist wissenschaftliche Mitarbeiterin am Institut für ökologische Wirtschaftsforschung. Im Forschungsfeld Umweltökonomie und Umweltpolitik arbeitet sie schwerpunktmäßig zu den Themen „Digitalisierung
und sozialer Wandel“ sowie „ökonomische und institutionelle Analyse von Umweltpolitiken“.