Der sich selbst verwaltende Speicher

_Speicher_Zukunft_shutterstock_160.jpgPredictive Analytics beim Speicher, also die Vorhersage zur zukünftigen Entwicklung des Speichers, aufbauend auf intelligenten Analysen der bisherigen Nutzung, fügen heutzutage vieler Hersteller ihren Produkte hinzu, um Überwachung, Reporting, Problembehebung, Performance und Nutzung zu verbessern.

Die daraus resultierenden Erkenntnisse ermöglichen es IT-Profis, aktiv Entscheidungen in ihrer Infrastruktur zu treffen. Moderne, virtualisierte Rechenzentren nutzen heutzutage sowohl alte als auch neue Speichersysteme parallel. Analysetools nur für einzelne Speichersilos zu nutzen, kann also nicht der richtige Weg sein. Eine moderne Software-definierte Speicherlösung (SDS) hingegen schafft es, Predictive Analytics für die komplette Speicherebene bereitzustellen: Es werden sämtliche Teile der Speicher-Infrastruktur analysiert, inklusive Virtualisierung und Prozessen – egal ob alt oder neu, All-Flash, Hybrid, HDDs oder Cloud.

Anzeige
Speicherebenen mit verschiedenen parallelen Lösungen benötigen ein gemeinsames Analyse-Werkzeug

Organisationen haben nur sehr selten den Luxus, ihr Rechenzentrum, inklusive des Speichers, von Grund auf neu zu planen. Die Realität sieht so aus, dass sowohl die Speicherkapazität als auch die Anzahl der zu unterstützenden Anwendung über die Jahre wächst und entsprechend mehrere Speicherplattformen verschiedener Hersteller parallel genutzt werden. In den meisten Fällen reichen die einzelnen Lösungen für die Anforderungen aus – immerhin wurden sie einst genau dafür geplant – und müssen nicht durch neue Speicherlösungen ersetzt werden. Moderne SDS-Lösungen, die die Speicherebene virtualisieren, können die Laufzeit einzelner Systeme sogar verlängern und bieten darüber hinaus ein Analysewerkzeug, das Informationen über Speicherarrays, Server und Anwendungen sammeln und auswerten kann. Analysen sowohl über Workloads und die komplette Speicher-Infrastruktur bieten einer modernen Organisation in der Praxis damit hohen Nutzen.

SDS und heterogene Predictive Analytics – ein echtes Dream Team

In Echtzeit erhobene Daten bilden die Basis intelligenter Analysewerkzeuge, die somit Entwicklungen und Muster erkennen können und zukünftige Bedürfnisse oder Probleme identifizieren, bevor es zu Ausfällen oder gar zum Betriebsstillstand kommt. Die Erkenntnisse können sogar für automatische, richtlinien-basierte Änderungen bei Performance, Kapazitätsnutzung, Cachegröße, Sicherheit, Optimierung, Disaster Recovery, Workloads und Service Levels genutzt werden. Die Möglichkeit, Predictive Analytics in SDS-Architekturen einzusetzen, bietet deutlich mehr Möglichkeiten Analysen für das Unternehmen zu nutzen, als auf Silos isolierte Lösungen. Es geht darum, den Speicher mit den neuen Erkenntnissen aus Analysen aus Unternehmenssicht aktiv zu verwalten und nicht mehr nur reaktiv aus technischer Perspektive. Das neue heterogene Analysewerkzeug aus einem Guss ist somit operativ effektiver, macht die Verwaltung von SLAs und wichtigen Workloads einfacher und bietet im Vergleich mit einzelnen Silo-Lösungen deutlich mehr Nutzen.

Selbstverwaltung von Daten und Kapazität!

Eine Verwaltungsoberfläche aus einem Guss reduziert die Komplexität einer Umgebung enorm und erlaubt jeder IT-Organisation, ihre Ressourcen effizient einzusetzen. Die Verwaltung von Volumes, Provisionierung und Migration ist eine oft zeitaufwändige und lästige Pflichtübung. Mit SDS-Lösungen und richtlinien-basierten Analysewerkzeugen ist es möglich, dass sich Daten und Kapazitäten buchstäblich selbst verwalten. Auch Workloads können ihren eigenen Performancebedarf basierend auf verfügbaren Ressourcen selbst festlegen. Ein Analysewerkzeug, das im Fernbetrieb, also in der Cloud arbeitet, kann auch für Service Provider, die Daten und Infrastrukturen ihrer Kunden verwalten, von großem Nutzen sein, auch wenn sichere Multi-Tenancy benötigt wird.

Einem einzelnen Speichersilo Analysefunktionen hinzuzufügen ist zu kurz gedacht. Das software-definierte Rechenzentrum und seine komplett virtualisierte Speicherebene kann alte Legacysysteme, sowie moderne und virtualisierte Umgebungen vereinen und ein Analysewerkzeug für die gesamte Umgebung bieten. Damit kann die IT die für das Unternehmen richtigen Entscheidungen für die gesamte Speicherebene treffen und Speichereinstellungen aufbauend auf diesen Analysen automatisieren.

Früher musste man „Pi mal Daumen“ schätzen, wie lange der Speicher wohl noch halten würde. Sich auf nur einfachste Analysen simpler Speicherattribute für bestimmte Speichersilos einzelner System zu beschränken, ist in einem heterogenen Rechenzentrum keine gute Option. Dank Software Definied Storage mit Predictive Analytics kann die IT ab sofort ihre komplette Speicherumgebung überwachen und die Speicher-Wahrsagerei endlich beenden.

Siegfried Betke, FalconStor SoftwareSiegfried Betke, FalconStor Software

www.falconstor.com

 

 

 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.