Zerto: »BSI-Empfehlung für sichere RZs erhöht DR-Anforderungen«

Die empfohlene Entfernung für georedundante Rechenzentren wurde vom BSI (Bundesamt für Sicherheit in der Informationstechnik) von fünf auf 200 Kilometer erhöht. Dies sorgt im Schadensfall für eine bessere Sicherheit. Für Unternehmen steigen damit auch die Herausforderungen. Wir sprachen mit Johan van den Boogaart, Regional Sales Manager bei Zerto über die neuen Anforderungen und worauf es speziell beim Disaster-Recovery nun zu achten gilt.

999999  Das BSI hat seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Was sind die Gründe für diese neue Empfehlung?

Anzeige

Johan van den Boogaart, ZertoJohan van den Boogaart, Zertovan den Boogaart: Das BSI erklärt den dramatisch erhöhten Mindestabstand damit, dass es in der Vergangenheit einfach nicht möglich war, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen. Im Klartext geht es um regionale Katastrophen, die auf einen Schlag beide Rechenzentren ausfallen lassen könnten. Dazu zählen neben Naturkatastrophen wie Überschwemmungen, Großbrände, Erdbeben, Vulkanausbrüchen oder Tsunamis auch von Menschenhand gemachte Unglücke, wie etwa Störfälle in Atommeilern.

999999  Die meisten sich Georedundanz gebende Rechenzentren werden sich im Moment wohl in einem deutlich geringeren Abstand voneinander befinden. Für wen hat diese neue Empfehlung direkt Folgen?

van den Boogaart: Die Empfehlungen des BSI für den sicheren Betrieb von Rechenzentren gelten vielen Organisationen als Richtschnur. Viele Branchen folgen den Empfehlungen freiwillig, andere, wie etwa die Bankenbranche, werden von ihren eigenen Verbänden bindend zur Einhaltung der Richtlinien des BSI angehalten. Die Empfehlung hat prinzipiell für so gut wie alle Rechenzentrumsbetreiber Folgen, insbesondere jedoch für Betreiber von Rechenzentren, die vom Gesetzgeber als »kritische Infrastrukturen« eingestuft werden und alle Institutionen auf Bundesebene.

999999  Worauf müssen sich diese Betreiber jetzt einstellen?

van den Boogaart: Unternehmen oder Organisationen, die die bisher empfohlenen fünf Kilometer zwischen ihren georedundanten Rechenzentren einhielten, müssen sich nun nach mindestens einem neuen Standort für das zweite Rechenzentrum umschauen. Und das wird kein Kinderspiel, bedeutet der Wechsel doch eine umfangreiche Migration von Infrastruktur, Daten und aktiven Workloads. In vielen Fällen werden Organisationen ihre heutigen Cloud- und Disaster-Recovery-Strategien überdenken und entsprechend anpassen müssen.

999999  Inwiefern beeinflusst die Empfehlung aktuelle Disaster-Recovery-Strategien?

van den Boogaart: Mit der weiteren Entfernung erhöhen sich gleichzeitig die Latenzzeiten der Daten, die zwischen den Rechenzentren hin und her verschoben werden. Die deutlich höhere Latenzzeit zweier so weit voneinander entfernter Rechenzentren macht insbesondere die Synchrone Replikation von Daten, auf der die Hochverfügbarkeit vieler Systeme aufbaut, effektiv unmöglich. Wenn die verwendeten Technologien aufgrund geänderter Rahmenbedingungen nicht mehr funktionieren, bedeutet dies für Unternehmen, dass sie vor dem Problem stehen, zukünftig ihre Daten und Applikationen mit minimalem Performanceverlust und geringen RPOs zu schützen.

999999  Und wie kann dieses Problem technisch gelöst werden?

van den Boogaart: Unter Berücksichtigung all dieser Faktoren, bleibt nahezu nur eine technische Möglichkeit auf diese weite Entfernung Redundanz zu gewährleisten: Continuous-Data-Protection (CDP), mit asynchroner Replikation.

.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.