Skip to main content
#2Glossar

Moderatoren: Ausgebeutet, um KI zu trainieren

Magazin #2 | Sommer 2023

Moderatoren: Ausgebeutet, um KI zu trainieren

Wie menschliche Online-Moderator*innen und Clickworker unter schlechten Arbeitsbedingungen Daten für das Training von KI-Systemen liefern

Facebook sagt, dass KI-Technologie ein zentraler Baustein bei seiner Moderation von Plattforminhalten ist: „Unser KI-System ermittelt und entfernt Inhalte, die gegen unsere Gemeinschaftsstandards verstoßen, noch bevor sie jemand meldet.“ Auch die automatisierte Textproduktion von ChatGPT kommt nicht ohne KI aus: Um den Output des ChatBots massentauglich zu machen, müssen toxische Inhalte entfernt werden. Vermutlich setzen alle großen Online-Plattformen bei der Moderation von Inhalten auf die Unterstützung von Künstlicher Intelligenz. Ein Grund dafür ist, dass der Einsatz von KI-Systemen günstiger ist, als rein auf menschliche Moderation zu setzen. Außerdem sind die Aufgaben von Moderator*innen psychisch herausfordernd: Sie sind ständig mit verstörenden Inhalten konfrontiert, die im Internet zirkulieren.

Aber: KI-Moderationssysteme beruhen auf menschlichen Entscheidungen, nicht nur bei unklaren Moderationsfragen. Moderator*innen liefern den Systemen die Trainingsdaten und sind somit eine zwingende Voraussetzung dafür, dass die Systeme überhaupt entwickelt werden können.

Dennoch sind gerade diese Menschen extrem schlechten Arbeitsbedingungen ausgesetzt. Da die Arbeit von Online-Moderator*innen psychisch so belastend ist, sollten große Plattformen ihnen gegenüber einer besonderen Sorgfaltspflicht nachkommen. Stattdessen wird ständig darüber berichtet, dass Subunternehmen von Facebook, TikTok oder OpenAI Moderator*innen und Clickworker schlecht bezahlen, ihnen keine adäquate psychologische Begleitung anbieten, durch ein ständiges Monitoring extremen Druck auf sie aufbauen und eine gewerkschaftliche Organisation der Angestellten durch Drohungen verhindern.

Mit all diesen Vorwürfen sah sich zuletzt das französische Unternehmen Teleperformance konfrontiert, ein Moderationsdienstleister unter anderem für TikTok. Nach investigativen Recherchen hatte das kolumbianische Arbeits­ministerium eine Untersuchung der Arbeitsbedingungen bei Teleperformance in Kolumbien angeordnet. Daraufhin wurde der öffentliche Druck so groß, dass die Gewerkschaft UNI Global Union im Dezember 2022 ein globales Abkommen mit dem Unternehmen erzielen konnte, das den Arbeitnehmer*innen mehr Rechte und einen besseren Schutz ihrer Gesundheit sichern soll.

Solche Schritte sind dringend notwendig, um die Hersteller von KI-Systemen entlang der gesamten Wertschöpfungskette zu fairen Arbeitsbedingungen zu verpflichten. Aktuelle europäische digitalpolitische Vorhaben wie die KI-Verordnung, die Platform Worker Directive oder der Data Act ignorieren das Problem. Gerade wenn die Entwicklung und der Einsatz von KI-Systemen nach Maßgabe europäischer Werte stattfinden soll, wie es die KI-Verordnung formuliert, sollte die EU die Augen vor schlechten Arbeitsbedingungen nicht verschließen, nicht nur im Fall von Online-Moderator*innen.