Magazin #1 | Sommer 2022
KI aus dem Baukasten
Interview mit Gregor Blichmann
Das Software-Unternehmen elevait entwickelt KI-Produkte für die Automatisierung von Geschäftsprozessen. Durch den modularen Aufbau der Systeme werden Trainingszeiten reduziert und Ressourcen geschont. Außerdem wird dadurch mittelständischen Unternehmen der Einsatz von KI ermöglicht.
Interview mit Gregor Blichmann
In den Jahren seit unserer Gründung haben wir festgestellt, wie die Umsetzung von KI nicht gut funktioniert: Die Entwicklung darf sich nicht an einzelnen Kundenprojekten mit speziellen Problemen orientieren. Derartige Problemlösungen können nicht auf weitere Projekte übertragen werden, sodass Zeit und Geld nicht gerade nachhaltig investiert worden sind. Wir liefern Firmen, die mit ihren Daten zu bestimmten Ergebnissen gelangen möchten, also nun passende KI-Bausteine, die die Kundendaten verarbeiten, ohne jedes Mal von Grund auf neu entwickelt werden zu müssen. Dieses Prinzip hat natürlich seine Grenzen, aber es hat sich als sehr praktikabel erwiesen und ist nicht nur ökonomisch, sondern auch ökologisch nachhaltig. Wenn für jedes KI-Projekt ein neues Modell trainiert werden muss, ist der zur Berechnung notwendige Server- und Energieaufwand enorm. Je weniger Training wir brauchen, desto weniger Ressourcen werden verbraucht, um die Modelle zu erstellen und somit die Lösung für den Kunden bereitzustellen.
Stellen Sie sich ein Projekt vor, bei dem Dokumente extrahiert werden müssen. Wenn wir dafür eine KI-Lösung en bloc entwickeln, müssten wir zum Beispiel ein Modell bauen, das die Art der Dokumente erkennt, bestimmte Bereiche herauszieht und den entsprechenden Text liest. Bei unserem Ansatz werden die Aufgaben in diesem Prozess als modulare Bausteine behandelt. Für jeden Arbeitsschritt gibt es ein definiertes Modell, zum Beispiel für die Handschrifterkennung. Dieser Baustein hängt nicht bzw. nur wenig vom spezifischen Projektprofil der jeweiligen Kunden ab. Derartig trainierte Modelle können wir in allen Anwendungsfällen einsetzen, in denen sie gebraucht werden. Wir haben nach diesem Bausteinprinzip Modelle für einzelne kleine Aufgaben trainiert und orchestrieren diese Einzelmodule über einen Workflow, der sich aus den Projektanforderungen ergibt.
Wir haben gemerkt, dass wir eine KI-Software einzelnen Kunden nicht in der Erwartung anbieten können, dass wir sie verkaufen und damit unseren Beitrag geleistet haben. Die Anwendung von KI folgt bestimmten Workflows, die in den Unternehmen etabliert sind, das muss sich über einen gewissen Zeitraum hinweg entwickeln, auch in dem Sinne, dass die Modellqualität mit den trainierten Elementen immer besser wird. Bei den Kunden muss Vertrauen wachsen. Wir arbeiten mit transparenten Benchmarks und sagen ihnen zum Beispiel: Wir haben ein repräsentatives Datenset generiert und mit den Modellen analysieren lassen, 80 Prozent der Dokumente werden erkannt und die Daten mit 95-prozentiger Genauigkeit eingelesen. Dann können uns die Kunden ein Feedback geben, ob diese Werte für sie okay sind. Wenn die Ergebnisse stimmen, spielt es letztlich keine Rolle, ob die KI-Lösung für sie eine Blackbox ist. Allerdings müssen wir erst einmal zu dem Status gelangen, dass sie dieser Blackbox vertrauen.
Unser Kerngeschäft sind KI-Produkte für die Automatisierung von Geschäftsprozessen wie die automatische Verarbeitung von Dokumenten. Da geht es beispielsweise um eine automatisierte Erfassung und Weiterverarbeitung von Formularen zur Bestellung oder Inventur, Anamnesebögen im Krankenhaus, Rechnungen, Lieferscheinen, Service- Tickets, Bauplänen oder reinen Texten im weitesten Sinn.
Einer unserer Kunden ist zum Beispiel ein Hersteller von orthopädischen Produkten. Individualbestellungen machen einen sehr großen Anteil seines Geschäfts aus. Die Patient*innen lassen also ihre Beine oder Arme in einem Sanitätshaus individuell abmessen, diese Maße wer den dem Anbieter übermittelt und dieser muss innerhalb von kürzester Zeit das Produkt herstellen und versenden. Dieser Vorgang bringt eine sehr enge Taktung und hohe Individualisierung mit sich. Es muss zudem alles genau passen. Bei der Bestellung müssen bis zu 40 Maße plus 40 bis 80 Konfigurationsoptionen berücksichtigt werden. Bislang wurde der Bestellvorgang noch zu 80 Prozent über ein Formular abgewickelt, das per E-Mail oder Fax verschickt wird. Unser Kunde erhält pro Tag mehrere Tausend Bestellformulare, die oft handschriftlich ausgefüllt sind. Früher tippten täglich um die 40 Beschäftigte in zwei Schichten die Formulare ab. Es wurde für unseren Kunden immer schwieriger, dafür Mitarbeiter*innen zu finden, was seinen Wachstumsplänen entgegenlief. Das Unternehmen wollte mehr Bestellungen am Tag abarbeiten und das war mit dem bisherigen Prozess so nicht möglich. Unsere Aufgabe bestand darin, die Bestellungen teil- oder vollautomatisiert zu erkennen und ins System einzupflegen.
Wir müssen bedenken, dass unserer Gesellschaft ein demografischer Wandel bevorsteht, bei dem sehr viele Menschen in den nächsten zehn Jahren aus der Arbeitswelt ausscheiden werden. Gleichzeitig wird die Zahl der zu verarbeitenden Dokumente, Informationen und Daten stetig ansteigen. KI ist eine Lösung, um dieser immer größer werdenden Lücke zwischen zur Verfügung stehender Arbeitskraft und dem Bedarf an Datenverarbeitung zu begegnen. Es geht nicht darum, den Menschen die Jobs wegzunehmen, sondern darum, dass wir uns diesem Problem stellen. Außerdem soll KI die Arbeit erleichtern. Die Mitarbeiter*innen können dort eingesetzt werden, wo eine KI nicht unterstützen kann.
Wenn man versucht, einen Prozess zu automatisieren, dann reicht es nicht, nur KI einzusetzen. Ein reibungsloser Prozessablauf hängt vom Spezial- und Erfahrungswissen der Mitarbeiter*innen ab. Zum Beispiel kennen die Mitarbeiter*innen den Kunden X seit langer Zeit. Wenn dieser Kunde etwas bestellt, dann rechnen sie seit Jahren pauschal immer 10 Prozent auf die angegebenen Maße dazu. Sie wissen nämlich aus Erfahrung, dass die Bestellungen bei diesem Kunden immer zu knapp ausfallen und er sie ohne Anpassung später ohnehin ändern wird. Wenn ein Automatisierungsprozess erfolgreich durchgeführt werden soll, müssen auch solche Nuancen ins Zielsystem aufgenommen werden. Eine reine Datenextraktion reicht da nicht aus. Daher stellen wir unseren Kunden mit dem KI-System auch einen Editor zur Verfügung, mit dem sie selber Regeln definieren können. Sie können dann im System festlegen: Wenn eine spezielle Kundennummer und folgendes Attribut erkannt wurde, dann lösche bitte diesen Wert oder rechne auf alle Maße 10 Prozent hinzu. Wir haben das Tool so gebaut, dass unsere Kund*innen das selbst übernehmen und überlegen können, was dem System noch fehlt. So können sie eigenständig Stück für Stück das vorhandene implizite Fachwissen der einzelnen Mitarbeiter*innen ins System einpflegen, um so den Automatisierungsgrad stetig zu erhöhen.
Wir haben mit den Angestellten aus dem Kreis der Kundenservice- Mitarbeiter*innen, also den Personen, die bisher die Daten abgetippt hatten, einen Workshop durchgeführt, um zu erklären, wie das Regelwerk adaptiert werden kann. Sie pflegen heute das System – unter Aufsicht der Kundenservice-Leitung und eines IT-Verantwortlichen. Aber die Regeln kommen von den Mitarbeiter*innen. Der Fokus ihrer Arbeit verschiebt sich durch den Einsatz der KI zudem. Sie sind jetzt mehr mit dem Kontrollieren und Bearbeiten von Grenzfällen beschäftigt, die nicht durch das System, sondern nur persönlich durch die Mitarbeiter*innen abgearbeitet werden können. Dafür haben sie mehr Zeit, sich diesen Fällen individuell zu widmen.
Sie arbeiten mit dem nachhaltigen Rechenzentrum Cloud&Heat zusammen. Wie wichtig ist es, bereits in der KI-Entwicklung ressourcenschonend zu denken?
Da gibt es eine starke Wechselwirkung zwischen ökonomischen und ökologischen Faktoren. Für uns ist eine zentrale Frage, wie wir eine möglichst geringe Rechenzeit erreichen.Schaffe ich es allein durch die Wahl der Architektur meines KI- Modells und der dahinterliegenden Software, die Rechenzeit zu reduzieren? Das ist ein ganz einfacher und wichtiger Faktor, um ökologisch nachhaltig zu sein – weil wir so weniger Strom verbrauchen. Das ist mit dem ökonomischen Vorteil verbunden, dass es weniger kostet. Wir dürfen auch die Hardware nicht vergessen, die für die Berechnungen notwendig ist. Allein der Bau der Hardware hinterlässt einen großen CO2-Fußabdruck. Wir müssen unsere Modelle auf GPUs trainieren. Wenn ich 100 GPUs brauche, ist der Fußabdruck entsprechend groß. Wenn ich aber meine Modell-Architektur so intelligent wähle, dass ich ein ähnliches Ergebnis auf 10 GPUs berechnen kann, dann habe ich einen deutlich kleineren CO2-Fußabdruck. Wir optimieren unsere Modelle aus intrinsischer Motivation, aber gleichzeitig gibt es auch viele monetäre Anreize.
Hintergrund
Indirekter Ressourcenverbrauch
Dimension:
Ökologische Nachhaltigkeit
Kriterium:
Energieverbrauch
Indikator:
Berücksichtigungund Optimierung der Energieeffizienz
Bei der KI-Entwicklung und dem KI-Einsatz kann viel Energie eingespart werden, beispielsweise durch das Komprimieren von Modellen, durch ein effizientes Trainieren der Modelle, durch datenminimalistische Ansätze, durch die Nutzung vortrainierter Modelle, durch weniger komplexe Modelle oder durch eine effiziente Software- und Hardwareinfrastruktur. Es fehlt bisher an einem Bewusstsein für dieses Thema und an Expertise zu entsprechenden Methoden. Organisationen, die KI entwickeln oder einsetzen, sollten jedoch die Energieeffizienz eines KI-Systems zu einem zentralen Kriterium in ihren Entscheidungs- und Auswahlprozessen machen, um ökologisch nachhaltig zu handeln.
Arbeitsbedingungen und Arbeitsplätze
Dimension:
Ökonomische Nachhaltigkeit
Kriterium:
Arbeitsbedingungen und Arbeitsplätze
Indikator:
Evaluation und Optimierung der Arbeitsbedingungen
KI-Systeme werden immer häufiger im Arbeitsleben eingesetzt, was die Arbeitsbedingungen sowohl verbessern als auch verschlechtern kann. Viele befürchten, dass der Einsatz von KI zum Abbau von Arbeitsplätzen führt. Organisationen sollten die Konsequenzen für Arbeitnehmer*innen abschätzen, bevor sie ein KI-System einführen. Die Systeme können zum Beispiel dazu führen, dass die Arbeit monotoner wird, dass Arbeitnehmer*innen stärker überwacht werden oder dass die Qualifikationen der Arbeitnehmer*innen für bestimmte Tätigkeiten ihren Wert verlieren. Hier sollte ein Interessensausgleich stattfinden, zum Beispiel durch Weiterbildungsangebote.
Gregor Blichmann
Chief Technology Officer (CTO) bei elevait
… forschte nach seinem Studium in Computer Science als wissenschaftlicher Mitarbeiter an der Technischen Universität Dresden zu webbasierter Software- und Serviceentwicklung sowie semantischen Webtechnologien. Anschließend wechselte er als Software Engineer und -Architekt zum Vorgängerunternehmen von elevait, wo er die grundlegende Software-Architektur mit aufbaute. Mit dem Start von elevait und mit dem Wachstum der technischen Teams übernahm er zunehmend die Koordination zwischen den technischen Teams, bis er Chief Technology Officer (CTO) des Unternehmens wurde.