Das Rechenzentrum mit Flash optimieren

Datacenter Black RacksEs kommt auf die Gesamtbetrachtung an: Flash im Rechenzentrum ist mehr als nur die Verbesserung von Zugriffszeiten und Übertragungsgeschwindigkeiten. Es geht um die Optimierung der Speicherkosten im Rechenzentrum und diese Maßnahme wirkt sich auf die gesamte Infrastruktur positiv aus.

Welche Faktoren hierfür relevant sind und wie sich die Flash-Technologien weiterentwickeln, zeigt der folgende Beitrag.

Anzeige

Flash-basierte Storage-Systeme sind eine wirkungsvolle Lösung, um Latenzen beim Datenzugriff zu optimieren und Transaktionsraten von Datenbanksystemen zu steigern. In den letzten Jahren haben sich die Einsatzmöglichkeiten für Flash deutlich verfeinert und so gibt es nicht das eine Flash-Speichersystem, mit dem sich alle Anforderungen gleichermaßen erfüllen lassen. Vielmehr sollten IT-Verantwortliche heute individuell auswählen, welche Flash-Technologie den größten Nutzen im Rechenzentrum bringt. Nur so lassen sich die Potenziale bestmöglich nutzen: Flash bietet nämlich weitaus mehr als nur ein Plus an Geschwindigkeit und kann vielmehr auch dabei helfen, die IT-Betriebskosten dauerhaft zu senken.

Über Geld spricht man nicht… oder doch?

IT-Verantwortliche sollten bei einer Flash-Investition nicht nur auf den Preis pro Gigabyte schauen, da die Festplatten bei Betrachtung von reinen Anschaffungskosten derzeit noch günstiger sind. Allerdings fallen die Preise für Flash kontinuierlich, während bei Festplatten kaum noch Kostensenkungen möglich scheinen. Zu komplex sind die High-End-Festplatten geworden, mit ihren bis zu sieben Platten pro Laufwerk und Helium-Füllung bei hochkapazitiven Modellen. Dagegen sorgen bei Flash die Skaleneffekte der Massenfertigung und neue Produktionsverfahren dafür, dass die Speicherdichte steigt. Es zeichnet sich ab, dass etwa im Jahr 2017 Enterprise-Flash die reinen Anschaffungskosten einer High-End-Festplatte schlägt.

Darüber hinaus macht ein reiner Vergleich auf Kapazitätsbasis wenig Sinn, ohne die laufenden Betriebskosten zu betrachten. Wer zum Beispiel virtuelle Desktop-Infrastrukturen oder hochperformante Datenbanken durch Flash optimiert, kann bestehende Server konsolidieren und damit CPU-bezogene Software-Lizenzen reduzieren. So werden bei SQL-Datenbanken die Lizenzen häufig pro Prozessorkern berechnet. Mit dem Abschalten von nicht mehr benötigten Servern fallen CPU-Kerne aus der Lizenzierung. Zusätzlich verringern sich die Energiekosten für Stromversorgung und Klimatisierung, wenn weniger Server benötigt werden.

Kurz und bündig

Die in Flash-Systemen integrierten Funktionen wie Deduplizierung und Komprimierung tragen ganz erheblich dazu bei, die Speicherinfrastruktur zu optimieren. Dies gelingt mit Flash noch stärker als bei Festplatten-basierten Systemen. Die niedrigen Latenzzeiten sowie der hohe Datendurchsatz machen es möglich, deutlich aggressivere Methoden zur Datenreduzierung anzuwenden, wie beispielsweise eine sehr granulare Deduplikation mit Inline-Komprimierung. Je nach Art der Daten lässt sich eine Datenreduktion von bis zu 10:1 erreichen – und dies ohne Belastung der Server-Infrastruktur.

Lebensverlängernde Maßnahmen

Ein Dauerbrenner in Diskussionen rund um Flash ist die Abnutzung der Speicherzellen. Um die Lebensdauer der Laufwerke zu verbessern, sind Flash-Controller mit intelligenten Algorithmen für das Wear Leveling ausgestattet. Dadurch werden Schreibvorgänge auf Flash stark optimiert und gleichmäßig über alle verfügbaren Zellen hinweg verteilt. Dies hilft dabei, die Effekte der Zellendegeneration von Flash-Speicher zu minimieren. Wie die Erfahrungen in Kundenprojekten zeigen, kommen Flash-Laufwerke selbst bei intensiver Nutzung nur schwer an die Grenze ihrer Lebenserwartung. Der Anbieter Samsung rechnet beispielsweise für das im Jahr 2013 vorgestellte Modell SSD 840 EVO mit einer Lebenserwartung von zehn Jahren, wenn der Anwender täglich rund 40 GByte an Daten schreibt.

Technologischer Ausblick

Das Wettrennen der Speichertechnologien geht weiter. Bei den Festplatten arbeiten Hersteller daran, die Speicherdichte weiter zu steigern und so sieht das Advanced Storage Technology Consortium (ASTC) im Jahr 2025 erste Festplatten mit 100 TByte. Ob sich der hierfür notwendige technologische Aufwand bei den fallenden Flash-Preisen noch rechnet, wird sich zeigen. Im Flash-Segment prognostiziert Toshiba SSD-Kapazitäten von bis zu 128 TByte bis etwa 2018 auf Basis von Quadruple Level Cells (QLC). Darüber hinaus arbeiten Intel und Micron an der 3D Xpoint Technologie: Diese soll mit Hilfe einer Art Phase Change Memory arbeiten und dadurch nochmal mehr Geschwindigkeit im Vergleich zu Flash bieten und etwa ab 2017 verfügbar sein. Genaue technologische Details haben die Hersteller bislang allerdings unter Verschluss gehalten.

Fazit

Erst in Kombination mit einer Vielzahl an Software-Funktionen entsteht mit Flash eine Infrastruktur, die flexibel skalierbar ist, höchste Performance-Anforderungen unterstützt und wirtschaftliche Vorteile bringt. Die Integrationsfähigkeit von Flash-Storage sollte höchste Priorität haben und gleichzeitig muss die Integration mit IT-Ressourcen aus der Cloud möglich sein, um das Hybrid Cloud-Betreibermodell zu unterstützen. Hierfür ist eine übergreifende Datenmanagementplattform notwendig, mit der sich aktuelle und künftige Speichertechnologien effizient integrieren lassen. Wie das funktioniert, zeigt zum Beispiel NetApp mit seinem Data Fabric-Konzept.

DataFabric

Bild: Data Fabric ist das von NetApp entwickelte Konzept für ein zukunftsfähiges Datenmanagement, mit dem Unternehmen eine Multi-Cloud-Infrastruktur betreiben.

 Peter WüstPeter Wüst, Senior Director Emerging Solutions und Innovation Group EMEA, NetApp

www.netapp.com/de

 

 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.