Anzeige

Database

Ob Interaktion mit den Kunden in einem Onlineshop, Zugriffe auf Ressourcen einer Website oder die betriebsinterne Nutzung von Softwareanwendungen: Datenbanken sind eine tragende Säule zahlreicher Geschäftsprozesse. So können auch kleine Probleme auf Datenbankebene verlangsamte Abläufe mit sich bringen oder gar zu Ausfallzeiten führen.

Laut Gartner liegen die durchschnittlichen Kosten für IT-Ausfallzeiten bei 5600 Dollar pro Minute. Obwohl die Bezifferung maßgeblich von der Größe und Art des Unternehmens abhängt, können selbst kleine Unternehmen Kosten von bis zu 100.000 Dollar pro Stunde Ausfallzeit verzeichnen, während bei größeren Unternehmen die Kosten auf über 1 Million Dollar pro Stunde ansteigen können. Verlangsamte Prozesse wiederum verursachen zwar geringeren Schaden – man schätzt etwa ein Fünftel der stündlichen Ausfallkosten - sie treten allerdings zehnmal häufiger auf. Diese Kosten können sich sehr schnell summieren, so dass es für jedes Unternehmen von enormem Wert ist, derartige Ereignisse frühzeitig und schnell zu identifizieren, ihre Ursache zu ermitteln, zu lösen und künftig zu vermeiden.

Datenbanken sind mit einer Vielzahl an weiteren Prozessen verknüpft, die sich auf die Leistung auswirken können. Unternehmen nutzen daher verschiedene Tools und Methoden, um Schwierigkeiten, die die Performance von Datenbanken beeinträchtigen oder diese hervorrufen können, ausfindig zu machen. Diese mögen augenscheinlich für den täglichen Betrieb gut genug sein, werden sie jedoch auf die falsche Weise eingesetzt, können noch mehr Aufwand und Kosten entstehen. Für Unternehmen lohnt es sich daher, ihre  Monitoring-Lösungen kritisch zu betrachten:

Überwachung der Anwendungsleistung: Application Performance Management (APM) Tools

Heute gibt es eine Fülle von Tools auf dem Markt, die eine einfache Überwachung der Anwendungsleistung in guter Qualität ermöglichen und einen allgemeinen Überblick des Zustands von IT-Umgebungen bieten. Wie die Mehrheit der Nutzer angibt, sind APM-Tools zwar in der Lage, in die richtige Richtung zu weisen, allerdings gelingt es ihnen nicht, Problemursachen auf der Datenplattform zu identifizieren. Somit ist es erforderlich, zusätzlich manuelle Daten zu erfassen, um Probleme zu beheben und dauerhaft zu lösen.

Da APM-Tools mitunter nicht die erforderliche Tiefe der Datenbankanalyse erreichen, um die zugrunde liegenden Performance-Probleme zu eliminieren, dauert die Ursachenanalyse meist länger und erschwert die langfristige Optimierung.



Benutzerdefinierte Skripte

Erfahrene Datenbankadministratoren (DBAs), verfügen meist über eine Sammlung von benutzerdefinierten Skripten, die sie entweder online recherchiert oder selbst erstellt haben. Diese Skripte dienen in der Regel dazu, andere Werkzeuge wie beispielsweise APM zu ergänzen, fehlende Funktionen auszugleichen oder ad-hoc-Probleme zu lösen.

Wird die Leistungsüberwachung vornehmlich durch eine Skript-Bibliothek bewerkstelligt, kann dies dennoch Einschränkungen nach sich ziehen. Denn nur in Ausnahmefällen lässt sich mit ihnen ein vollständiges Bild der IT-Umgebung erstellen. Viele Skripte werden lediglich für einen bestimmten Sachverhalt entwickelt und sind bereits nach einmaliger Anwendung überflüssig. Diejenigen, die einen längerfristigen Wert bieten, sind hingegen oft schwer zu warten. Wenn die Umgebung wächst und neue Technologien zum Einsatz kommen, kann die Pflege der Skripts schnell zu einer Vollzeitbeschäftigung werden. Angesichts der geringen Wahrscheinlichkeit, dass die Skripts die erforderliche Granularität besitzen und/oder signifikante historische Details liefern, um den Ursachen auf den Grund gehen zu können, ein unnötig hoher Aufwand.

SQL Server Wait Statistics

Eine 'Ressourcen-Wartezeit' wird durch Prozesse akkumuliert, die auf SQL Servern laufen und darauf warten, dass eine bestimmte Ressource verfügbar wird. Warte-Statistiken (wait statistics) zeigen entsprechend auf, wo sich kritische Engpässe innerhalb von SQL Servern aufbauen. Einige IT-Verantwortliche könnten versucht sein, sich einfach auf die Warte-Statistiken zu konzentrieren, um die Leistung ihrer Datenbanken zu verstehen. Dies kann jedoch - insbesondere auf Abfrageebene - zu völlig falschen Schlussfolgerungen führen. Es ist in etwa so, als würde man bei einem Verkehrsstau lediglich ein einzelnes Auto betrachten. Das Auto bewegt sich und läuft demnach einwandfrei. Was dieser Betrachtung jedoch entgeht, ist der Lastwagen weiter vorne, der umdrehen möchte. Ebenso benötigt man auch bei der Betrachtung von Warte-Statistiken Informationen aus anderen Quellen, damit man ein vollständiges Bild erlangen und den Ursachen auf den Grund gehen kann.

Dennoch bilden sie zumindest einen sehr guten Ausgangspunkt, um ein Gefühl für das Leistungsprofil des Servers zu bekommen und zu erfahren, wo Probleme auftreten können.

Überwachung der Datenbankleistung: Data Performance Monitoring (DPM) Tools

Auf den ersten Blick erscheinen DPM-Tools natürlich als effektivste Methode zur Überwachung der Datenbankleistung, schließlich sind sie genau dafür konzipiert. Doch auch sie bringen Einschränkungen mit sich, wenn man es nicht versteht, ihr Potenzial maximal zu nutzen.

Ein Problem von DPM-Tools können beispielsweise zu wenige Details sein, insbesondere bei Counter- Metriken wie CPU oder IO. Manche Produkte und auch selbst entwickelte Lösungen erfassen Momentaufnahmen dieser Daten lediglich einmal im Abstand von mehreren Minuten, um den entsprechenden Server nicht übermäßig zu belasten. Andere Einschränkungen betreffen die Details auf Abfrageebene: Meist werden lediglich die Top N-Abfragen gesammelt oder angezeigt, unabhängig von der Aktivitätsebene auf dem Server. Oder man konzentriert sich auf Abfragen, die auf ihren eigenen Wartezeiten basieren, im Gegensatz zum tatsächlichen Ressourcenverbrauch der Anfrage, bei dem es viel wahrscheinlicher ist, die Ursache zu identifizieren.

Auch die Skalierbarkeit ist oft eine Herausforderung. Die Anzahl an Servern, die sich mit einer Produktinstallation überwachen lassen, ist bei den meisten DPM-Tools begrenzt. Die Tatsache, dass sie alle von einer SQL Server-Datenbank unterstützt werden, um sämtliche gesammelten Daten zu speichern, schafft allerdings einen Engpass. Aus diesem Grund haben diese Produkte ab etwa 200-300 überwachten SQL-Servern zu kämpfen. Für größere Unternehmen, kann es daher notwendig sein, mehrere Installationen zu implementieren, um alle Server abzudecken. Einige DPM-Produkte handhaben dies, indem sie mehrere Back-End-Datenbanken von einer einzigen Schnittstelle aus unterstützen, obwohl dies einen erheblichen Kosten- und Verwaltungsaufwand erfordert.

„Gut genug“ kann durchaus teuer werden
Unabhängig von der Größe eines Unternehmens können die Datenbestände stets komplex sein.

Deshalb ist es wichtig, sicherzustellen, dass die eingesetzten Tools optimal laufen und maximalen Nutzen bringen. Im Wesentlichen können Unternehmen anhand der folgenden Kriterien beurteilen, ob ihre Lösung zur Datenbanküberwachung ausreichend wirksam ist:

  • Bietet die Lösung genügend Details und exakt die Angaben, um Probleme schnell zu lösen und zu verhindern?
  • Lässt sie sich entsprechend des erwarteten Datenwachstums skalieren?
  • Funktioniert die Lösung in allen Umgebungen, in denen sie benötigt wird?
  • Trägt sie in zufrieden stellendem Maß zur Problemlösung bei – oder ruft sie womöglich noch mehr hervor, als sie lösen soll?
  • Wie sieht es mit dem Support aus? Besteht Unterstützung durch erfahrende Ingenieure, für den Fall, dass etwas schief geht?

Bestehende Lösungen in regelmäßigen Abständen kritisch zu evaluieren hilft dabei, wirksame und effiziente Prozesse zu entwickeln. Insbesondere verhindert es dem Phänomen entgegen, dass die eingesetzten Lösungen zwar als gut genug erscheinen, letztendlich aber durch Verlangsamung oder Ausfälle unnötige Kosten verursachen.

Steven Wright, Director of Sales Enablement bei SentryOne, www.sentryone.com/

 


Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!

 

Artikel zu diesem Thema

Cloud Rechenzentrum
Okt 15, 2020

Datenschätze in den Wolken

Die Cloud bietet Unternehmen zahlreiche Vorteile und sorgt auch im Bereich Data…
Datenbank Sicherheit
Sep 22, 2020

Die Sicherheit von Daten beginnt in der Datenbank

Die Datenbank ist das Herzstück eines Security-Konzepts. Der Datenbank-Pionier Couchbase…

Weitere Artikel

Data center

Drittwartung im Rechenzentrum

2021 verspricht für die Third-Party Maintenance-Branche und insbesondere für einen ihrer führenden Vertreter ein spannendes Jahr zu werden. Vor wenigen Monaten hat sich die Technogroup IT-Service GmbH der Evernex angeschlossen. Gemeinsam bilden sie den neuen…

RiMatrix Next Generation: die Zukunftsplattform für alle IT-Szenarien

Bei IT-Infrastrukturen ist Veränderung heute eine Konstante. Die digitale Transformation bringt Innovationen in einem noch nie dagewesenen Tempo hervor. IT-Verantwortliche wissen, dass in Zukunft immer neue, noch unbekannte Anforderungen auf sie zukommen…
Datenanalyse

Daten spielen seit COVID-19 eine wichtigere Rolle in Unternehmen

Als Reaktion auf die COVID-19-Pandemie setzen Unternehmen zunehmend auf Datenanalysen, um das volatile wirtschaftliche Umfeld besser zu verstehen und schnell zu reagieren. Dies geht aus einer weltweiten Studie unter IT-Entscheidern hervor, die das unabhängige…

Anzeige

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!