Generative KI: die Komplexitäts-Falle

AI, Generative KI, künstliche Intelligenz

Ziel ist es, generative KI-Unternehmensanwendungen, Sicherheit und Tooling auf das nächste Level zu heben. Zwischen Theorie und Praxis klafft in Unternehmen nicht selten eine beachtliche Lücke. Dies gilt umso mehr, wenn das Innovationstempo anzieht und die Unternehmenswelt mit der technologischen Entwicklung nicht mehr mithalten kann.

So stellen die auf den ersten Blick schier unzähligen Optionen generativer KI Entscheiderinnen und Entscheider vor die Qual der Wahl: Welche Modelle eignen sich, um die Produktivität zu verbessern? Welche Punkte sollten im Vorfeld geklärt werden? Welche Daten sollten für das Training herangezogen werden? Nur eine kleine Auswahl an Fragen, die bereits illustrieren: Der langfristige Erfolg von KI steht und fällt damit, dass Unternehmen im Vorfeld ihre Hausaufgaben gründlich erledigen.

Anzeige

Weitere zentrale Themen, denen sich Entscheider widmen sollten, bevor sie generative KI in ihre operativen Arbeitsprozesse implementieren, drehen sich um die eigenen Unternehmenswerte und ethische Anliegen, um die aktuelle und zukünftige Regulierung sowie um den Datenschutz. Jedes dieser Themen kann einen Berg an kleinteiligen Schritten mit sich bringen. Um eine erste grobe Orientierung zu geben, mit welchen Fragen auf Entscheider:innen konfrontiert werden, wenn sie auf generative KI setzen wollen:

Interne Richtlinien und Unternehmenswerte: Angesichts der immensen Tragweite generativer KI, wenn sie erst einmal in der ganzen Organisation ausgerollt und skaliert wird, dürfen ethische Aspekte anfangs nicht zu kurz kommen. Gerade in Krisenzeiten sollten Entscheider:innen darauf achten, dass pragmatische Entscheidungen pro Künstliche Intelligenz nicht unbeabsichtigt soziale Gruppen diskriminieren und ganz unbeabsichtigt langfristig negative Folgen haben. Eine häufige Ursache für solche Fehlentwicklungen ist, dass KI-Modelle mit bereits verzerrten Datensätzen trainiert werden. Denn Daten als solche sind, so nüchtern sie auch wirken mögen, nie eine neutrale Information, sondern immer ein Repräsentant für die Wirklichkeit. Und wenn die Sets auf einer diskriminierenden Wirklichkeit beruhen, werden KI-Modelle diese Wirklichkeit replizieren.

Gesetze und Datenschutz: Urheberrechtsverletzungen stehen bereits im öffentlichen Brennpunkt. Schließlich nutzen KI-Modelle, um zu trainieren, bestehende urheberrechtlich geschützte Werke – seien es Bilder, Texte oder Videos. Verletzt ein, womöglich unentgeltliches, Nutzen dieser urheberrechtlich geschützten Informationen für das Training der Modelle die Rechte der eigentlichen Urheber? Eine schwierige Frage. Klar dagegen ist: Entscheider:innen sollten sich im Vorfeld damit auseinandersetzen, anhand welcher Daten ihre Modelle trainiert werden sollen und welche Daten sie nutzen, um im Alltag die ihnen zugedachte Arbeit auch erledigen zu können. Das KI-Zeitalter ist bei näherem Hinschauen vor allem ein Daten-Zeitalter. Risiken und langfristige Folgen lassen sich in vielen Fällen nur von Personen beurteilen, die verstehen, woher die Daten stammen, wie groß sie sind, wie und wo sie erhoben werden und wie die Modelle sie nutzen. Erschwert wird in der EU das Abwägen und die Entscheidungsfindung dadurch, dass aktuell niemand prognostizieren kann, wie exakt die zukünftige KI-Regulierung aussehen wird.

Haben Entscheider:innen ihre grundsätzlichen Hausaufgaben gemacht, geht es ans Eingemachte: Wie groß ist der unternehmerische Mehrwert, den eine KI für das Unternehmen birgt? Und wie ist die Relation von Mehrwert einerseits zu Aufwand und Kosten andererseits? Gleich vorweg: “Je größer desto besser” – dieses Motto funktioniert im Falle der KI nicht. Komplizierte Modelle und eine große Datenmenge können zwar die Qualität und inhaltliche Tiefe verbessern, lassen aber auch Kosten und Aufwand in die Höhe schießen. Wer beispielsweise eine KI für das Beantworten vergleichsweise einfacher Kundenanfragen einsetzen möchte, wird voraussichtlich mit einem überschaubaren Volumen an Trainingsdaten auskommen. Geht es dagegen um aufwendige Reportings oder Fachanalysen, werden Unternehmen ohne Finetuning der KI-Modelle an ihre Grenzen stoßen.

Auf das Ziel fokussieren

Der Fokus auf das Wesentliche ist entscheidend für den langfristigen Erfolg: Generative KI dient der Wertschöpfung. Bei aller Liebe zu theoretischen technologischen Potenzialen; schlussendlich ist es der Erfolg der ersten – idealerweise etwas kleineren – Anwendungsfälle, der die relevanten Stakeholder begeistert, Energie und Ressourcen in folgende KI-Projekte zu stecken. Erfolg bedeutet in diesem Sinne insbesondere Steigerung der Produktivität und Qualität.

Wie aufwendig und kostspielig das Implementieren von KI-Modellen schlussendlich ist, hängt dabei auch davon ab, welche Daten in welcher Form verfügbar sind:

  • Sind die Daten bereits intern verfügbar (oder müssen sie erst aufbereitet oder extern gekauft werden)?
  • Wie gut eignen sich bereits existierende Modelle für die Aufgabe, beispielsweise angebunden über eine API (oder müssen Modeller erst neu gebaut und trainiert werden)?
  • Verfügen Unternehmen bereits über Mitarbeitende, um die eingangs skizzierten Risiken und Chancen abwägen zu können und die Technologie intern zu verantworten (oder müssen erst noch Experten gesucht und angestellt werden)?

Generative KI: Einfach oder doch lieber komplex?

Eine Faustregel lautet: Solange externe Modelle mit generativer KI nur angebunden werden, nicht aber anhand eigener Daten weiterentwickelt und trainiert werden, sind Aufwand und Kosten überschaubar. Je stärker die Modelle den eigenen Herausforderungen angepasst werden, je größer die Datenmengen, mit denen sie gefüttert werden, desto höher auch die Kosten. Übrigens nicht nur die Kosten für das Implementieren, sondern auch die laufenden Kosten für Rechen- und Speicherkapazitäten. Auf der anderen Seite können komplexere Modelle durchaus größeren Mehrwert stiften. Dies gilt insbesondere dann, wenn hoch qualifizierte Mitarbeitende durch generative KI viel Zeit sparen und wenn KI die Qualität der Ergebnisse verbessert und diese rascher vorliegen. Komplexere Modelle können Ressourcen sparen, weil sie Prozesse und Auslastung optimieren oder den Verkauf fördern, weil sie die für den Absatz entscheidenden Variablen identifizieren.

Jenseits dieser Rechenmodelle beinhalten die Hausaufgaben vor der Entscheidung für bestimmte Modelle, Daten und Anwendungsfälle aber auch eine menschliche Komponente: Wie einfach können Fachkräfte ohne IT-Expertise die Modelle in ihrem Arbeitsalltag anwenden?

Damit wären wir auch wieder bei Theorie und Praxis. Die in der Theorie beste KI-Lösung kann in der Praxis hohe Kosten und Aufwand verursachen, wenn Mitarbeitende sie gar nicht erst anwenden. Eine zentrale Hausaufgabe lautet daher: Bei der Entscheidung für oder gegen ein KI-Modell immer auch die Fachkräfte selbst einzubinden.

Kurt Muehmel Dataiku

Kurt

Muehmel

Dataiku

Everyday AI Strategic Advisor

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.