Net.Law.S 2018
20.02.18 - 21.02.18
In Nürnberg, Messezentrum

CESIS 2018
20.02.18 - 21.02.18
In München

SAMS 2018
26.02.18 - 27.02.18
In Berlin, Maritim proArte

Plentymarkets Online-Händler-Kongress
03.03.18 - 03.03.18
In Kassel

Search Marketing Expo 2018
20.03.18 - 21.03.18
In München, ICM – Internationales Congress Center

DatentunnelBei Festplatten steigt die Datendichte pro Magnetscheibe immer weiter an. Jüngst präsentierte der Hersteller Seagate mit der ST2000LM009 eine 2 TB große Festplatte mit einer Datendichte von 1 TB pro Magnetscheibe.

Betrachtet man die Entwicklung beim Bestreben der Hersteller die Datendichte von Festplatten zu erhöhen, so lässt sich feststellen, dass es in den letzten Jahren zwar gelungen ist die Dichte zu erhöhen, jedoch die Flächen eines Schreib-/ Lesekopfes hierbei im Verhältnis zur Datendichte nur marginal reduziert wurden. Hierdurch entstehen zukünftige Herausforderungen bei der Datenwiederherstellung für Labore und Anwender, warnen die Experten der KUERT Datenrettung Deutschland GmbH in Bochum.

compare-head

Höhere Datendichte in Festplatten stellt neue Herausforderungen für Anwender und Datenrettung dar

Für die Datenrettung ist dies ein Problem, denn mit steigender Datendichte wird im Falle eines Headcrashs der Festplatte auch eine höhere Anzahl an Sektoren irreparabel beschädigt, die in diesen in diesen beschädigten Bereichen liegen.

Studien des Herstellers Hitachi / HGST belegen zudem eine Korrelation zwischen fortschreitender Miniaturisierung und der durchschnittlichen Lebensdauer von Festplatten:

Je kleiner die Festplatten Bauform, desto kürzer der Lebenszyklus (Quelle: Hitachi HGST @2014):

5.25" 15-20 Jahre
3.5" 10-20 Jahre
2.5" 10 Jahre

Was bedeutet das für den Anwender?

Für den Anwender bedeutet es sich genau vor Augen zu halten, wofür er Festplatten einsetzen will, welche Daten er darauf speichern will und diesen Daten einen Wert beizumessen:

  • Sind die Daten ersetzlich oder unersetzlich ?

"Im Falle unersetzlicher Daten sollte jeder Anwender sich vor Augen halten, dass herstellerseitige Marketingversprechen zur Lebensdauer von Festplatten keine Garantie für die Ausfallsicherheit einer Festplatte darstellen. Hier gilt, dass jeder selbst zusehen muss wo er bleibt und für sich die ideale und bestenfalls automatisierte Lösung sucht, um diese unersetzlichen Daten regelmäßig auf verschiedenen Speicherorten und Speicherarten abzulegen", sagt Martin Eschenberg, CMO bei KUERT Datenrettung in Bochum.

Zukunftsausblick zur Datenrettung hochkapazitärer Festplatten im Labor

Je höher die Datendichte einer ausgefallenen Festplatte ist, desto höher ist auch der anzusetzende Arbeits- und Zeitaufwand. Die Datendichte steht hierbei in einer direkten Korrelation zum jeweiligen Fehler und natürlich auch den entsprechenden Kosten zur Datenrettung sowie dem Erfolg der Rettung. Und sie steht auch, so man den Hitachi-Zahlen glauben schenken möchte, in einer direkten Beziehung zur Lebensdauer einer Festplatte.

ASTC-Technology-Roadmap

Doch wie definiert sich "Erfolg" für Rettungslabore?

Rettungslabore definieren Erfolg oder Erfolgsquoten unterschiedlich. So finden sich Aussagen wie "99 % Erfolgsquote", jedoch ohne hierauf einen speziellen Bezug zum Medium, zur Kundenzufriedenheit oder zur Anzahl zu nehmen.

Labore, die es etwas kundenfreundlicher und transparenter gestalten, definieren ihren "Erfolg" im Sinne von durch den Kunden angenommene Datenrettungsfälle. Also dessen, dass gerettet wurde was der Kunde haben auch gerettet haben wollte. Dass die Quoten hierbei naturgemäß deutlich niedriger, aber natürlich auch realistischer sind, versteht sich von selbst.

Die Angabe von Erfolgsquoten ist ein Marketingmerkmal, denn retten kann man in den meisten Fällen etwas, selbst dann wenn es nur zwei unstrukturierte Zeilen eines Windows-Ereignisprotokolls sind, zwar ist dies dann aus Sicht des Kunden ein Misserfolg, aus Sicht des Marketings betreffender Labore jedoch ein Erfolg, wenn auch schöngerechnet.

Neue Festplatten-Technologien ante Portas

Zukünftige Festplattengenerationen beinhalten Technologien wie HAMR, MAMR oder TDMR und stellen neue Herausforderungen für Labore dar, die es zunächst einmal allesamt in den Griff zu kriegen gilt. Folgt man jedoch den Entwicklungen der letzten Jahre so werden auch zukünftig die gleichen Mechanismen und Korrelationen greifen wie in der Vergangenheit. Für die Anwender sollte zukünftig, entgegen aller Technologie, die Backup-Disziplin und der persönliche Backup-Plan die allerhöchste Prämisse haben. Denn jede physikalische Beschädigung einer Plattenoberfläche steht zukünftig in einem direkten Zusammenhang mit der Datendichte pro Scheibe, stärker noch als dies in den vorausgegangenen Jahren noch der Fall war.

www.kuert-datenrettung.de

GRID LIST
Tb W190 H80 Crop Int 3665884dd5706943566e02355918e655

Juniper Bots: Self-Driving Networks wird Realität

Juniper Networks bringt Unternehmen, Service und Cloud Provider mit Juniper Bots einen…
Tb W190 H80 Crop Int 317759afc8ca7146cd91b20c1bc3da77

TÜViT bietet TSI-Version speziell für die Rechenzentrumsnorm EN 50600

Die TÜV Informationstechnik GmbH (TÜViT) hat auf Basis der europäischen…
Netzwerk

Netzwerkverwaltung der Zukunft: Worauf es für KMU ankommt

Großunternehmen verfügen eher über umfangreiche Ressourcen komplexe Netzwerke aufzubauen…
User

Flexera definiert SAM neu

Mit neuen Lösungen, Kooperationen und einer zentralen Plattform für Unternehmens-IT-Daten…
WAN Cloud

Verfügbarkeit des WAN hat für Cloud-Nutzer höchste Priorität

"Cloud First" heißt die Devise in immer mehr Unternehmen. IDC beispielsweise geht davon…
Tb W190 H80 Crop Int 8934e8c1736b537d6fa8ae0594f8bc01

Physiker beschleunigen Rechnen mit Quanten-Prozessoren

Für nächstes Jahr hat Google einen Quantenprozessor angekündigt, der mit 50 Qubits, den…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security