Stabile Governance erforderlich

Effizientes Datenmanagement: Der Trend geht zur KI-Fabrik

Immer mehr Unternehmen setzen Künstliche Intelligenz großflächig ein. Dabei zeichnen sich einige zentrale Entwicklungen ab: KI-Fabriken bilden die technische Basis, effiziente Datenspeicherung und Datenmanagement werden zum unverzichtbaren Rückgrat, und kleine KI-Modelle sorgen für operative Intelligenz. Gleichzeitig wird deutlich, dass ein stabiler Governance-Rahmen unverzichtbar ist.

Der Unternehmenseinsatz von Künstlicher Intelligenz tritt in eine neue Phase ein. Was bis dato eine Sammlung einzelner Anwendungsfälle war, wird zunehmend zu einer geschäftskritischen Infrastruktur. Organisationen stehen heute nicht mehr vor der Frage, ob sie KI einsetzen sollen, sondern wie sie diese zuverlässig, wirtschaftlich und kontrollierbar betreiben können. Die entscheidenden Entwicklungen liegen weniger in immer größeren Modellen als vielmehr in der Art und Weise, wie KI technisch, organisatorisch und strategisch im Unternehmen verankert wird, um damit echte Mehrwerte zu schaffen.

Anzeige

IT-Umgebungen werden zu KI-Fabriken

Eine zentrale Rolle spielt dabei der Wandel der IT-Umgebungen hin zu modularen KI-Fabriken. Die Umsetzung von KI-Projekten erfordert eine extrem skalierbare Infrastruktur. Wenn Unternehmen KI immer großflächiger einsetzen und die Zahl der Nutzer steigt, benötigen sie kurzfristig eine Vielzahl an hochperformanten Ressourcen. Damit sind klassische IT-Infrastrukturen schnell überfordert. Darüber hinaus ist es meist nicht praktikabel, KI ausschließlich zentralisiert zu betreiben. Viele Anwendungen müssen aus Latenzgründen lokal ausgeführt werden.

Unternehmen setzen deshalb zunehmend auf hybride Architekturen, bei denen Edge-Systeme latenzkritische Aufgaben übernehmen, während zentrale Rechenzentren für Training, zentrale KI-Dienste und Management zum Einsatz kommen und Public Clouds zur elastischen Skalierung bei weniger sensiblen Informationen genutzt werden. Daten werden dabei nicht pauschal in eine bestimmte Umgebung verschoben, sondern folgen einem regelbasierten Modell: Wo sie verarbeitet werden, hängt davon ab, wo der höchste Nutzen entsteht, wo die Verarbeitung wirtschaftlich sinnvoll ist und wo das geringste Risiko besteht.

Klassische Speicherinfrastrukturen können nicht mithalten

Der Erfolg von KI-Projekten hängt aber nicht nur von der Rechenleistung ab, sondern von der Effizienz des gesamten KI-Stacks. Die Speicherinfrastruktur spielt dabei eine besonders wichtige Rolle. Klassische Ansätze stoßen angesichts der hohen Anforderungen an Datenaggregation und schnellen Zugriff der Workloads an ihre Grenzen.

Anzeige

Aber auch bei einer hyperkonvergenten Infrastruktur kann es zu Engpässen kommen, wenn die Kommunikation zwischen den verschiedenen Nodes besondere Netzwerkanforderungen stellt. Speicher- und Rechenkomponenten müssen zudem stets gemeinsam erneuert werden, obwohl sie unterschiedliche Modernisierungszyklen haben. KI beschleunigt diesen kostspieligen Kreislauf weiter: GPUs müssen in der Regel bereits nach wenigen Jahren aktualisiert werden, während HDDs deutlich langlebiger sind.

Organisationen stehen heute nciht mehr vor der Frage, ob sie KI einsetzen sollen, sondern wie sie diese zuverlässig, wirtschaftlich und kontrollierbar betreiben können.

Christian Scharrer, Dell Technologies

Disaggregierte Architekturen bieten hier eine Lösung: Storage- und Compute-Leistung sind entkoppelt, und speziell für KI entwickelte Netzwerke sorgen für die erforderliche Performance bei der Kommunikation zwischen den KI-Knoten. Über ein weiteres Netzwerk steht zudem eine gemeinsame Speicherebene für KI bereit, die von allen Systemen gleichzeitig genutzt werden kann.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Effizientes Datenmanagement

Zusammen mit der Datenspeicherung wird auch das Datenmanagement zunehmend zum Rückgrat von KI-Innovationen. Weil KI-Systeme immer komplexer werden, wird die Qualität der Daten, die sie verarbeiten, immer wichtiger. Das macht speziell entwickelte KI-Datenplattformen unverzichtbar. Sie sind darauf ausgelegt, unterschiedliche Datenquellen zu integrieren, Datenartefakte zu schützen, Zugriffsberechtigungen unternehmensweit zu regeln und die erforderlichen Informationen über zentrale Zugriffspunkte bereitzustellen.

Die Fähigkeit, KI-Modelle effizient mit sauberen, organisierten und relevanten Daten zu füttern, ist insbesondere für die sich zunehmend verbreitende agentenbasierte KI von großer Bedeutung. Die Qualität der Daten ist bei ihr elementar für die Qualität der Ergebnisse. Agentenbasierte KI macht aus hilfreichen Assistenten integrale Manager für langwierige und komplexe Prozesse. In Bereichen wie Fertigung oder Logistik können KI-Agenten Mitarbeitende unterstützen und dabei helfen, ihre Arbeitsabläufe effizient aufeinander abzustimmen.

Dabei werden Daten nicht nur in erster Linie für das Training der Modelle genutzt, sondern auch beim Einsatz der Modelle aktiv eingebunden und laufend verarbeitet. Sie ermöglichen die Generierung von Wissen und Intelligenz, die sich in Echtzeit weiterentwickeln. Es sind umfangreiche und dynamische Datenströme, die KI-Agenten in die Lage versetzen, über Schichtdienste hinweg für Kontinuität zu sorgen oder Arbeitsabläufe in Echtzeit zu optimieren – und damit ein neues Maß betrieblicher Effizienz zu schaffen.

Kleine KI-Modelle setzen direkt an der Wertschöpfung an

Eine weitere zentrale Entwicklung ist der zunehmende Einsatz kleiner KI-Modelle tief im operativen Kern von Unternehmen. Ein gutes Beispiel dafür ist die Fertigung. Im Gegensatz zu großen KI-Modellen lassen sich Small Language Models (SLMs) in wenigen GPU-Stunden für spezifische Aufgaben wie das Erkennen von Abweichungen oder das Auswerten von Wartungsberichten weiterentwickeln. Techniken wie Low-Rank Adaptation (LoRA) ermöglichen es zudem, bereits vortrainierte Modelle gezielt anzupassen, indem nur kleine zusätzliche Komponenten trainiert werden, statt das gesamte Modell neu zu berechnen. Dadurch können Small Language Models schnell in die Produktionsprozesse integriert werden.

Ein entscheidender Vorteil ist zudem der lokale Einsatz: SLMs lassen sich direkt auf Edge-Geräten oder in abgeschotteten OT-Umgebungen betreiben, wodurch Reaktionszeiten und Sicherheitsrisiken minimiert werden. Gerade für Anwendungen im Bereich der Physical AI sind solche kompakten Modelle unverzichtbar. Selbstlernende, autonome Roboter funktionieren nur mit eingebetteter Intelligenz. Durch SLMs verschiebt sich KI von einer zentralen Servicefunktion hin zu einer dezentralen Fähigkeit, die direkt an der Wertschöpfung ansetzt.

2364 Bild
Zentrale Entwicklungen beim Unternehmenseinsatz von KI (Quelle: Dell Technologies).

Governance-Frameworks

KI entwickelt sich rasant weiter. Damit geht aber auch ein gewisses Maß an Volatilität einher. Der Bedarf an robusten Governance-Frameworks für den Unternehmenseinsatz wird dadurch größer denn je. Ohne tragfähige Governance werden Unternehmen mit Unsicherheiten konfrontiert, die die Einführung praktischer und nutzbringender KI-Anwendungen verlangsamen. Die öffentliche Hand, Unternehmen und Technologie-Anbieter sollten deshalb gemeinsam an der Entwicklung einer Governance für den Enterprise-Markt arbeiten.

Die Regulierung öffentlicher Chatbots oder einer öffentlichen Allgemeinen Künstlichen Intelligenz (Artificial General Intelligence, AGI) ist etwas völlig anderes, als Unternehmen dabei zu unterstützen, reale KI-Anwendungen für ihre Betriebe und Prozesse zu gestalten. Hier braucht es einen Governance-Rahmen, der Unternehmen klare Leitplanken bietet und es ihnen ermöglicht, sicher und nachhaltig voranzukommen.

Christian

Scharrer

Enterprise Architect und CTO Ambassador

Dell Technologies

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.