Das Rennen ist eröffnet. Mittlerweile bietet praktisch jeder Softwareanbieter eine Art KI-Co-Piloten an, der die Nutzer direkt bei der Arbeit mit ihrer Software unterstützt.
Diese Assistenten können die täglichen Aufgaben deutlich beschleunigen: GitHub Copilot hilft beim Schreiben von Code, Microsoft Word vervollständigt Sätze und die KI von Figma gibt Designempfehlungen.
Der nächste logische Schritt für Softwareanbieter besteht darin, Agenten zu entwickeln, die über einfache Unterstützung hinausgehen, indem sie Erkenntnisse aus Daten ableiten und manchmal sogar eigenständig Entscheidungen treffen. Deshalb forcieren viele Softwareanbieter mittlerweile auch KI-Agenten, die die in ihrer Software verwalteten Daten analysieren – mehr oder weniger intelligent. Zum Beispiel kann ChatSpot von HubSpot jetzt Berichte aus CRM-Daten erstellen, während die KI-gestützten Erkenntnisse von Google Analytics automatisch ungewöhnliche Traffic-Muster aufdecken oder plötzliche Einbrüche des Engagements kennzeichnen können. Das führt dazu, dass nicht nur die Nutzung der Software selbst effizienter wird, sondern auch die in der Organisation gesammelten Informationen kreativ genutzt werden können und man nicht mehr nur auf die üblichen, oft vorkonfigurierten Dashboards oder andere manuelle Reporting-Mechanismen angewiesen ist, um vorhandene Datenschätze zu heben.
Herausforderung: Fragmentierung und Dateninseln
Aus Sicht der Anbieter ist diese Entwicklung nachvollziehbar – für Unternehmen bringt sie jedoch ein Problem mit sich: Viele KI-Agenten arbeiten isoliert in Silos. Für hochspezialisierte Aufgaben mag das ausreichen, doch der echte Mehrwert liegt in generalistisch angelegten Agenten, die alle relevanten Unternehmensdaten systemübergreifend nutzen. Ein Beispiel: Ein Customer-Success-Agent im CRM könnte daran erinnern, dass die Vertragsverlängerung eines Kunden in der kommenden Woche ansteht und bislang niemand reagiert hat. Nützlich – aber sehr begrenzt, da er nur auf einen kleinen Ausschnitt der Daten zugreift.
Mit dem Zugriff auf viele weitere Tools könnte der Agent auch darauf hinweisen, dass die Support-Tickets dieses Kunden in letzter Zeit sprunghaft angestiegen sind, die Produktnutzung im Vergleich zum Vorquartal um 40 Prozent gesunken ist und niemand aus dem Konto an Webinaren teilgenommen oder auf Marketing-Outreach geantwortet hat. Anstelle eines einfachen Anstoßes empfiehlt die KI möglicherweise, das Konto zu eskalieren oder eine maßgeschneiderte Check-in-Nachricht zu verfassen, um diese Probleme zu beheben.
Aber auch die mittlerweile ja schon klassischen Co-Piloten werden künftig von unternehmensweiten Daten profitieren, und sei es nur, um Redundanzen zu vermeiden und einen Hinweis zu geben, dass ein Kollege oder eine Kollegin bereits eine ähnliche Arbeit in einem anderen Kontext durchgeführt hat.
Eine Vielzahl von Assistenten, die nebeneinander auf Teildaten operieren, ist jedoch in niemandes Interesse. Das Agent-to-Agent-Framework von Google zielt zwar darauf ab, dieses Problem – zumindest teilweise – zu lösen, indem es die Zusammenarbeit zwischen Agenten standardisiert. Damit ist das Kernproblem jedoch noch nicht gelöst: Im Idealfall sollten KI-Agenten nahtlos systemübergreifend arbeiten und uneingeschränkten Zugriff auf die gesamte Datenlandschaft eines Unternehmens haben, einschließlich aller öffentlich zugänglichen Daten wie aus sozialen Netzwerken oder Bewertungsplattformen. Dies stellt kein Problem dar, wenn das Unternehmen vor Jahren schon erfolgreich ein globales Data Warehouse eingeführt oder alle Daten bei einem einzigen Cloud Provider liegen.
Orchestrierung als Schlüssel zu Effizienz und Kontrolle
Dieser „One Warehouse rules it all“-Ansatz bleibt in der Realität für die meisten Unternehmen allerdings unrealistisch. In der Praxis arbeiten Organisationen mit vielen verschiedenen Systemen und sind darauf angewiesen, dass sie freien Zugriff auf ihre von diesen Systemen verwalteten Daten haben. Doch genau das liegt nicht im Interesse vieler Anbieter. Denn offener Datenzugriff würde bedeuten, dass ihnen damit potenzielle Einnahmen aus der KI-Agenten-Nutzung innerhalb ihrer eigenen Software entgehen. Einige Hersteller haben daher nun begonnen, Zugriffe externer Agenten auf Daten einzuschränken oder ganz zu untersagen – ein Konflikt, der sich mit den Interessen der Anwender beißt. Denn es verhindert, dass Unternehmen ihre eigenen Daten frei nutzen und in agentischen Workflows integrieren können. Die Zukunft wird zeigen, inwieweit sich die Kunden solche Einschränkungen gefallen lassen.
Langfristig werden sich daher agentische KI-Plattformen etablieren, die eine systemübergreifende Orchestrierung von KI-Tools und Agenten ermöglichen – unabhängig von den einzelnen, in einer Organisation verwendeten Softwarewerkzeugen, aber basierend auf den darunterliegenden Datenquellen. Diese Plattformen erlauben eine flexible Agentenkonfiguration, kombinieren Informationen aus diversen Quellen auf mehreren Abstraktionsebenen und binden spezialisierte Sub-Agenten bei Bedarf ein. So bleibt die Lösung technologie- und anbieterunabhängig, was gerade bei Systemwechseln enorme Vorteile bringt. Wenn man z. B. zu einem anderen CRM-System wechseln möchte, muss man sich nicht auf die Fähigkeiten der mitgelieferten KI verlassen und auch nicht alle vorhandenen Agenten anpassen, um das neue System zu nutzen. Es genügt, die wenigen Integrations-Tools in der Zwischenschicht anzupassen und dort den Zugriff vom alten System auf das neue umzustellen.
Compliance, Nutzererlebnis und Zukunftsausblick
Aus Compliance-Sicht ist ein übergeordneter Orchestrierungs-Layer ebenfalls sinnvoll. Er protokolliert den kompletten Entscheidungsprozess eines Agenten – von Anfragen über genutzte Tools bis hin zu abgerufenen Daten – und erleichtert damit Audits und Nachvollziehbarkeit: etwa, welche Anfrage wurde wie verarbeitet, welche Tools wurden mit welchen Parametern aufgerufen, welche Informationen wurden wo abgerufen.
Ein Beispiel dafür liefert KNIME mit dem internen AI-Agenten „Ask KNIME Anything“, der auf eine Vielzahl von Tools aufbaut und umfassende Einblicke in Kunden-, User- und Eventdaten, aber auch Informationen zu Mitarbeitenden, Finanzen und gesammelten Dokumentationen ermöglicht. Wichtig dabei ist, dass diese Tools nicht einfach nur Zugriff auf die Rohdaten geben, sondern oft schon Informationen aus unterschiedlichen Tools zusammenziehen. Zum Beispiel liefert das „Kundeninformations“-Tool aufbereitete Einsichten aus dem CRM-System – kombiniert mit Informationen aus dem Support-System und der Event-Datenbank. Statt dass der CRM-Agent also nur Informationen zu vergangenen Sales-Aktivitäten zusammenfasst, kann der Agent das in Relation setzen zur Teilnahme an Webinaren, zum Inhalt von Vorträgen auf öffentlichen Veranstaltungen, zu Börsenberichten der letzten Jahre – und Beiträge von Mitarbeitenden auf dem Firmenforum einbeziehen.
Solche Datenintegration könnte theoretisch auch die KI selbst durchführen, aber zum einen macht das deren Arbeit deutlich mühsamer. Zum anderen sind solche Datenintegrations-Workflows in vielen Unternehmen ohnehin schon vorhanden. Ein Szenario, in dem sich ein Agent jedes Mal aufs Neue fragmentierte Informationen mühsam aus verschiedenen Systemen und deren jeweils spezialisierten KIs zusammentragen muss, ist wenig effizient. In Zukunft wird das noch interessanter werden, wenn ein Agent im Laufe der Zeit eigenständig Informationsbeschaffungstools erstellt und verfeinert. Durch kontinuierliches Nutzerfeedback kann er zunehmend präziser modellieren (bewusst wird hier auf den Begriff „verstehen“ verzichtet), wie die Zusammenhänge innerhalb des Unternehmens strukturiert sind.
Langfristiger Nutzen und Entwicklungspotenziale
Wie kann man den Mehrwert eines zentralen KI-Orchestrierungs-Layers im Vergleich zu einzelnen softwarespezifischen KI-Insellösungen messen? Wie so oft ist das nicht ganz einfach. Der tatsächliche Nutzen zeigt sich erst mit der Zeit: Je mehr Systeme der Agent anbinden kann, desto hilfreicher wird er. Kein Agent wird von Anfang an alle Probleme im Unternehmen direkt lösen können. Doch durch kontinuierliches Nutzerfeedback verbessern sich die Prompts und das Gedächtnis der Agenten. Jede Verfeinerung macht sie Schritt für Schritt besser. Anfangs wirken spezialisierte Agenten oft stärker – weil sie genau auf ein bestimmtes Tool abgestimmt sind. Mittelfristig jedoch hängt der Agent, der Zugriff auf deutlich mehr Informationen hat, diese Spezialisten ab. Inzwischen hat sich die Einsicht durchgesetzt, dass die Einführung von KI oftmals nicht direkt zu einem Effizienzsprung führt. Wie bei vielen neuen Technologien treten zu Beginn Reibungsverluste auf. Die Einführung von systemübergreifenden Agenten bildet da keine
In Zukunft wird es spannend sein zu beobachten, wie Tool-Hersteller ihre Kunden dazu bewegen wollen, ihre eigene KI zu nutzen. Einige Anbieter haben bereits damit begonnen, den Zugriff von externen KIs zu untersagen. Für Cloud-Anbieter ist das allerdings nicht nur ein Produkt-Thema, sondern auch eine Frage der Bandbreite: Wenn jeder Kunde manuell auf seine dort liegenden Daten zugreift, ist das noch überschaubar. Wenn aber jeder eine eigene KI-Infrastruktur betreibt, die alle paar Minuten größere Zugriffe vornimmt, wird das schnell zum Problem. Vermutlich wird in Zukunft ein Teil der Nutzungskosten, die uns die Anbieter in Rechnung stellen, gar nicht durch unser eigenes Arbeiten mit dem Tool selbst verursacht, sondern durch unsere Agenten, die mit unseren Daten arbeiten. Und auch deshalb macht ein zentralisierter Orchestrierungs-Layer Sinn: Er kann Datenzugriffe optimieren und ist nicht auf die Kosteneffizienz der AI eines Herstellers angewiesen.
Eine gute Strategie besteht zurzeit darin, mehrgleisig zu fahren. Man verwendet erst einmal direkt einige Agenten, die Softwarehersteller mitliefern, und baut parallel eine übergreifende AI-Orchestrierungsstruktur auf. Diese kann schon bald den größten Teil der Spezialisten-Aufgaben übernehmen. Allein durch die Auswertung der Nutzungsdaten sollte man erkennen können, welche spezialisierten KIs tatsächlich noch im Einsatz sind – und ähnlich wie mit Google in der Vergangenheit – der Generalist der Go-to-Agent wird. Ganz im Gegensatz zu uns Menschen haben Agenten kein Problem damit, „zu viel“ Wissen in ihren Kopf quetschen zu müssen. Sie werden nicht müde, neue Informationen aufzunehmen, zu verarbeiten und zu nutzen. Und vor allem – sie vergessen und übersehen nichts.