Migration, Management, Monitoring

Der Weg zur optimierten Datenbankumgebung

„Daten sind der Rohstoff der Zukunft“, propagiert Bundeskanzlerin Angela Merkel bereits seit vielen Jahren – und das zweifelsohne zurecht. Treffen Unternehmen wichtige Entscheidungen, geschieht stets häufiger nicht „aus dem Bauch heraus“, sondern auf Basis von Daten.

Die zuverlässige Verwaltung von Datenbanken spielt nicht zuletzt deshalb eine Schlüsselrolle für den Unternehmenserfolg. Schließlich ist die Gefahr, aufgrund fehlerhafter oder fehlinterpretierter Daten falsche Schlüsse zu ziehen, im schlimmsten Fall sogar geschäftsschädigend. Es ist nicht übertrieben zu behaupten, dass es in manchen Fällen besser ist, keine Daten heranzuziehen, als sich auf schlechte zu stützen. Die Integrität der Daten nachhaltig sicherzustellen, ist für IT-Verantwortliche daher unerlässlich.

Anzeige

Es handelt sich um eine klar formulierte Aufgabe mit einem scheinbar einfachen Ziel: Der Aufbau von Datenbanken, mit der die Integrität von Daten über den gesamten Lebenszyklus hinweg gewährleistet wird, um die digitale Transformation eines Unternehmens voranzutreiben. Das Ziel mag klar sei, der Weg aber kann steinig sein. Die Gründe dafür sind vielfältig. Zum einen wächst die zu verwaltende Datenmenge rapide, zum anderen steigen auch die Anforderungen an Datenbanken – Stichwort Hochverfügbarkeit. Diese Trends haben zur Folge, dass IT-Verantwortliche in Unternehmen oftmals horrenden Aufwand betreiben, um die Datenbanken zu verwalten, während andere Unternehmen die den Aufwand scheuen und deshalb mit falschen Daten operieren. Beide Szenarien sind alles andere als optimal, bleiben deshalb doch beispielsweise Cloud-Migration, Open-Source-Implementierungen oder DevOps größtenteils auf der Strecke. Ein gänzlicher Verzicht auf moderne Datenbanken ist mit Blick auf die Zukunftsfähigkeit eines Unternehmens keine Alternative.

Ziel muss es vielmehr sein, eine sichere und einfach zu verwaltende Datenbankumgebung zu implementieren, mit deren Hilfe technische Hürden ohne größere Schwierigkeiten gemeistert werden können. Dabei kommt es auf drei zentrale Schritte an:

Migration

So banal es klingen mag, doch müssen IT-Teams zunächst folgende Frage klären: Wo befinden sich welche Daten? Viele Unternehmen folgen einem hybriden Ansatz. Manche Daten sind in der Cloud gespeichert, andere wiederum „klassisch“ im Inhouse-Rechenzentrum. Diese Art der Speicherung stellt grundsätzlich kein Problem dar, dennoch muss an dieser Stelle erwähnt werden, dass jede Datenmigration ein gewisses Risiko birgt. Es obliegt also den Verantwortlichen, potenzielle Gefahren vor der Migration auszuräumen oder zumindest zu minimieren.

Die Verwaltung der Daten in der Cloud bietet Unternehmen die bekannten Vorteile: Kosten für Betrieb und Wartung die sich am benötigten Speicherplatz orientieren, ein hohes Maß an Zuverlässigkeit sowie gesteigerte Flexibilität. Dies bedeutet aber nicht, dass IT-Teams wahllos Daten hochladen sollten. Vielmehr müssen sie reflektieren und verifizieren, welche Daten im Bestand sind und wie diese möglichst effizient genutzt werden können. Es geht um ein ständiges Abwägen zwischen den Kosten und dem Nutzen für das Unternehmen. Wird diese Abwägung gewissenhaft vor oder während des Migrationsprozesses durchgeführt, kann einer etwaigen Rückführung der Daten ins Rechenzentrum vorgebeugt werden. Da jede Migration – sowohl in die Cloud als auch aus der Cloud – mit dem Risiko eines Datenverlustes einhergeht, sollte hierbei äußerst gewissenhaft gearbeitet werden. Ein weiterer elementarer Schritt ist die Synchronisierung der Datenbanken, sofern die Daten an verschiedenen Orten gespeichert sind. Dies reduziert die Datenbankbelastung und beugt Datenverlust vor.

Bei der Migration von Daten stellt sich weniger die Frage nach dem Ob als nach dem Wie. Die Umsetzung des skizzierten Prozesses minimiert das Risiko eines Datenverlustes oder auch Ausfallzeiten. Das trägt zur Datenintegrität bei und hilft Unternehmen dabei, das Maximum aus ihren Daten zu holen.

Management

Allein die Erwähnung des Wortes Datenbankmanagement treibt vielen IT-Verantwortlichen Sorgenfalten auf die Stirn, da dies für gewöhnlich mit immensem Arbeitsaufwand verbunden ist. Daran ändern auch die verschiedenen Datenbank-Tools nur wenig. Allein der Erhalt des Status quo ist eine zeitaufwändige Aufgabe.

Abhilfe und verspricht die Automatisierung routinemäßiger Aufgaben wie Skriptausführungen oder Zustandsprüfungen. Neben massiver Zeiteinsparung hilft dieser Schritt dabei, gesetzliche Vorgaben zu personenbezogenen Daten einzuhalten, auch im Zusammenhang mit Discovery-Prozessen.

Auch wenn es um die Einführung agiler Arbeitsweisen in Sachen Softwareentwicklung geht – Stichwort DevOps – ist die Verwaltung von Datenbanken ein nicht unerheblicher Faktor. Derlei Methoden werden schon heute bei der Applikationsentwicklung angewendet, aber häufig stellen sich Datenbanken hierbei als Bremsklotz heraus. Insbesondere, wenn die neuentwickelte Software, um zu funktionieren, auf eine Datenbank zugreifen muss. Die dabei nötigen Änderungen an der Datenbank müssen in den meisten Fällen händisch umgesetzt werden. Dabei kommt es jedoch häufig zu Fehlern. Genau hier kommen die Vorteile von Automatisierung ins Spiel, um dem Unternehmen viel Zeit und Kosten zu ersparen. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Monitoring

Zu guter Letzt müssen IT-Teams die tatsächliche Leistung ihrer Datenbank im Auge behalten. An einem Monitoring, das alle Aspekte erfasst, führt dabei kein Weg vorbei. Nur wer stets über Leistungsvermögen und tatsächlichen Leistungsstand informiert ist, kann die Performance auf dem gewünschten Level halten. Dies gilt umso mehr, als Größe, Komplexität und Heterogenität der Datenbanken konstant zunehmen. IT-Verantwortliche müssen daher Zugriff auf Leistungskennzahlen, Echtzeitdaten und möglichst weit vereinfachte Tools haben. Die Datenbank muss zudem unabhängig vom (physischen) Standort jederzeit überprüfbar sein.

In der Summe lässt sich konstatieren, dass viele moderne Unternehmen auf effiziente Datenbanken angewiesen sind. Um den maximalen Nutzen aus diesen zu ziehen, müssen IT-Teams mit den entsprechenden Tools ausgestattet sein, aber auch einen klaren Plan verfolgen. Selbst wenn es verlockend klingen mag, sich auf dem Ist-Zustand auszuruhen, lässt der Blick auf die Zukunft nur den Schluss zu, dass Unternehmen schleunigst auf eine flexible und skalierbare Datenbank-Lösung setzen sollten – allein, um den Anforderungen der Digitalisierung gerecht zu werden und von ihr zu profitieren. Agilität und Anpassungsfähigkeit werden in Zukunft branchenübergreifend an Bedeutung gewinnen. Eine moderne Datenbank ist in diesem Zusammenhang ein integraler Bestandteil eines Unternehmens.

Zeman Ales

Quest Software -

Sales Engineering Manager for Central Europe

Ales Zeman arbeitet seit über 19 Jahren bei Quest Software. Im Unternehmen leitet er für den Geschäftsbereich Information Management die Abteilung Sales Engineering & Professional Services in Europa, dem Nahen Osten und Afrika. In seiner Position ist er verantwortlich für Lösungen rund um das Applikations- und Datenbank-Performance-Management. Er hat
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.