Strategien und Entwicklungen

Storage-Prioritäten im KI-Zeitalter

Die zunehmenden Anforderungen, die KI-Workloads an Unternehmens-IT stellen, von generativer KI bis hin zu agentenbasierten Modellen, machen Storage zu einer zunehmend zentralen Priorität bei der Gestaltung von Rechenzentren. Andernfalls kann es zu erheblichen Leistungsengpässen kommen.

Lange Zeit galt Storage als reines Backend-Problem, das von der KI-Strategie getrennt war. Dieser Ansatz ist jedoch nicht mehr zeitgemäß. Da KI-Inferenz zunehmend verteilt und datenintensiv wird, kann eine schlecht optimierte Storage-Infrastruktur die Leistung drosseln, die Kosten erhöhen und die Erreichung von Nachhaltigkeitszielen erschweren.

Anzeige

Als Reaktion darauf überprüfen viele IT-Verantwortliche ihre IT-Infrastruktur, wägen On-Premise- und hybride Storage-Lösungen ab und suchen nach flexibleren, softwaredefinierten Architekturen. Storage ist heute eine strategische Designentscheidung und kein nachrangiges Thema mehr: von Kosten- und Souveränitätsbedenken bis hin zu hohen Durchsatzanforderungen in KI-Pipelines. Dieser Artikel beleuchtet vier aktuelle Entwicklungen, die Storage-Strategien in KI-getriebenen Unternehmensumgebungen prägen.

Trend 1: Lokale Storage-Infrastruktur für regulierte Daten

Die zunehmende geopolitische Instabilität und strenge Datenschutzanforderungen in Europa und Asien veranlassen immer mehr Unternehmen dazu, sensible und personenbezogene KI-Trainingsdaten On-Premise zu speichern und zu verarbeiten. Dies bietet ihnen eine bessere Kontrolle über Leistung und Latenz. Das ist für Inferenz-Workloads von entscheidender Bedeutung, die auf großen lokalen Datensätzen und einer engen Integration von Rechenleistung und Storage beruhen. Die Datenlokalität spielt in der KI eine wichtige Rolle, insbesondere beim Training mit sensiblen oder personenbezogenen Datensätzen wie Gesundheitsakten, Finanztransaktionen oder geschützten Industriedaten.

Unternehmen setzen zunehmend auf flexibel konfigurierbare Rack-Scale-Lösungen, bei denen Rechenleistung, Netzwerk und Storage gemäß den internen Compliance-Anforderungen konfiguriert und gesichert werden können. Der Einsatz von KI veranlasst Unternehmen dazu, in skalierbare, schlüsselfertige Lösungen und parallele Dateisysteme zu investieren, die intern betrieben werden können. Eine solche Struktur bietet Rechenzentrumsplanern mehr Flexibilität hinsichtlich der langfristigen Datenspeicherung, Orchestrierung und Überprüfbarkeit.

Anzeige

Trend 2: Hybrid-Strategien optimieren Kosten und Kontrolle

Die Public Cloud bleibt wichtig, wenn kurzfristig zusätzliche Kapazitäten benötigt werden (Cloud-Bursting) oder für frühe KI-Experimente. Viele Unternehmen stoßen jedoch mit zunehmendem Workload an Kosten- und Leistungsgrenzen. Die Kombination von Wirtschaftlichkeit der Cloud und Kontrolle On-Premise ist die Idee hinter hybriden Strategien. Sie bieten Unternehmen einen praktischen Weg, um ihre KI-Inferenz zu skalieren und gleichzeitig die Kontrolle über ihre Kapital- und Betriebskosten (CAPEX und OPEX) zu behalten. Daher kommen Objekt-Storage-Plattformen in beiden Umgebungen zunehmend zum Einsatz. Sie ermöglichen es, KI-Modelle in der Cloud zu trainieren und die Inferenz näher an dem Ort durchzuführen, an dem die Daten generiert oder benötigt werden.

Ein weiterer Treiber für Hybrid-Ansätze ist veraltete Technologie. Unternehmen modernisieren ihre veralteten Storage-Systeme mit softwaredefinierten Objekt- oder Dateisystemen, die Cloud und lokale Systeme nahtlos miteinander verbinden können. Die richtige Hybridarchitektur kann die Bindung an einen bestimmten Anbieter verringern. Sie ermöglicht das Daten-Tiering und trägt dazu bei, CAPEX und OPEX über den gesamten KI-Lebenszyklus hinweg auszugleichen. Das geschieht vom Experimentieren bis zur Produktionsbereitstellung.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Trend 3: KI und ihr Energiebedarf

Storage-Systeme für KI-Workloads, insbesondere solche, die GPU-Cluster mit hohem Durchsatz versorgen, müssen so konzipiert sein, dass sie Rechendichte, Kühlung und Energieeffizienz in Einklang bringen. Herkömmliche, luftgekühlte Systeme haben Probleme damit, die für große KI-Trainings- oder Inferenzcluster erforderliche Leistungsdichte zu erreichen. Direkte Flüssigkeitskühlung und Immersion sind daher mittlerweile wichtige Designaspekte. Storage-optimierte Server mit PCIe Gen 5, GPU Direct Storage und RoCE tragen dazu bei, die Latenz und die CPU-Auslastung zu reduzieren, indem sie den direkten Zugriff vom Storage auf den GPU-Speicher optimieren.

Eine ganzheitliche Betrachtung der Energieeffizienz muss verschiedene Faktoren berücksichtigen. Dazu gehört das CPU-Design und die Integration, denn verschiedene Marken haben unterschiedliche Anforderungen. Außerdem ist die Speicherbandbreite wichtig, ebenso wie die I/O-Verbindungen zwischen Storage und KI-Beschleunigern. Unternehmen verlangen vorab getestete Storage-Lösungen im Rack-Maßstab, die Energieeinsparungen mit vorhersehbarer Leistung verbinden, da die PUE (Power Usage Effectiveness) als KPI zunehmend auch auf der höchsten Management-Ebene erfasst wird.

Trend 4: Mehrstufige Storage-Architekturen

Moderne KI-Inferenz-Workloads, einschließlich agentenbasierter KI und RAG, sind auf den ständigen Abruf aus großen Vektordatenbanken und unstrukturierten Data Lakes angewiesen. Storage mit geringer Latenz ist daher unverzichtbar.

Statt starrer Appliances werden softwaredefinierte Storage-Plattformen eingesetzt. Dadurch können IT-Teams Datei-, Objekt- und Blockspeicher für verschiedene KI-Pipelines anpassen. Parallel dazu entstehen KI-native Orchestrierungstools, die den Datenlebenszyklus verwalten, die Tiering-Automatisierung steuern und die Erfassung von Trainingsdaten, die Modellversionierung und die Echtzeit-Inferenz koordinieren.

Unternehmen setzen auf mehrstufige Storage-Architekturen mit einer All-Flash-Performance-Ebene und einer dauerhaften Objektebene für langfristige Trainingsdatensätze. Tests und Validierungen sind für den erfolgreichen Storage-Betrieb von entscheidender Bedeutung. Wie bei jeder Technologie müssen auch diese Plattformen unter realen KI-Workloads einem Stresstest unterzogen werden. So werden ein nachhaltiger Durchsatz, Fehlertoleranz und eine konsistente Latenz unter Last gewährleistet.

Storage strategisch denken

KI verändert nicht nur die Art und Weise, wie Unternehmen Daten nutzen. Sie verändert auch die Anforderungen an Storage-Architekturen grundlegend. Wer künftig skalierbar, performant und effizient arbeiten will, muss Storage frühzeitig als integralen Bestandteil jeder KI-Strategie betrachten. Nur so lassen sich Engpässe vermeiden, Betriebskosten senken und Nachhaltigkeitsziele erreichen.

Neben Durchsatz und Kapazität rücken Aspekte wie Energieeffizienz, Orchestrierbarkeit und Datenhoheit in den Vordergrund. Die Entscheidung für bestimmte Storage-Technologien beeinflusst nicht nur die technische Umsetzung, sondern auch den wirtschaftlichen Spielraum für spätere Ausbaustufen. Unternehmen, die heute modular und belastbar planen, schaffen sich die notwendige Flexibilität, um schnell auf neue KI-Anforderungen reagieren zu können.

Wendell Wenjen

Wendell

Wenjen

Director of Storage Market Development

Supermicro

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.