VERANSTALTUNGEN

DAHO.AM
24.07.18 - 24.07.18
In München

2. Jahrestagung Cyber Security Berlin
11.09.18 - 12.09.18
In Berlin

DILK 2018
17.09.18 - 19.09.18
In Düsseldorf

it-sa 2018
09.10.18 - 11.10.18
In Nürnberg

Digital Marketing 4Heroes Conference
16.10.18 - 16.10.18
In Wien und München

Programmieren Code Shutterstock 172683092 700

Um innovative Software-Angebote am Puls der Zeit zu entwickeln, muss das Development und Testing unter realitätsnahen Bedingungen und mit „echten“ Daten erfolgen. Gleichzeitig müssen Kosten reduziert und die Agilität gefördert werden. Fünf Gründe, warum die DataOps-Technologie diese Anforderungen erfüllt und damit die Software-Entwicklung beschleunigt. 

Das zügige Umsetzen von innovativen Ideen in digitale Angebote ist erfolgsentscheidend. Dies setzt allerdings voraus, dass Software-Entwicklern und -Testern Daten in der erforderlichen Güte und Schnelligkeit bereitstehen. Zudem gilt es, die Informationsbestände abzusichern und parallel eine Maskierung sensibler Daten durchzuführen. Dieses Anforderungsprofil erfüllt die DataOps-Technologie, die Datenbanken, Applikationen und Dateisysteme auf einfache Weise virtualisiert. Minas Botzoglou, Regional Director DACH bei Delphix, nennt die fünf wichtigsten Gründe, weshalb DataOps bereits heute unverzichtbar für jedes Unternehmen ist, das sich ernsthaft mit der Digitalisierung auseinandersetzt.

Überzeugende Datenqualität

DataOps-Lösungen erzeugen „Data Pods“. Das sind virtuelle Datenumgebungen, die auf Produktivdaten basieren und Software-Entwicklung unter „realen“ Bedingungen ermöglichen. In der Praxis kommen jedoch häufig synthetische Daten zum Einsatz, weil es für Unternehmen zu kompliziert, zu risikoreich, zu teuer und zu zeitaufwändig ist, zig Terabyte Daten von einem Produktivsystem zu kopieren und in eine Entwicklungsumgebung oder auf ein Testsystem zu transferieren. Künstliche Datensätze haben allerdings ein wesentliches Manko: Eine Entwicklung ohne reelle Datenbasis wirkt sich negativ auf die Präzision und die Qualität neuer Applikationen aus. DataOps hingegen automatisiert die Datenaktualisierung aus der Produktion, sodass Tests mit realen und zuverlässigen Daten erfolgen.

Beachtliches Bereitstellungstempo

Mithilfe einer DataOps-Plattform lassen sich für Entwickler, Testfachleute und Big-Data-Spezialisten innerhalb von Minuten Data Pods auf Basis der Produktivdaten bereitstellen. Ein aufwändiges Hochfahren von voluminösen Test- und Entwicklungsumgebungen ist nicht erforderlich. Beim Verwenden von physischen Datenkopien dauert es mehrere Stunden oder gar Tage bis große Datenbestände zur Verfügung stehen. So gaben die Befragten einer Delphix-Studie an, dass es im Schnitt dreieinhalb Tage dauert, bis eine Test-Umgebung zur Verfügung steht.

Multiple virtuelle Datenumgebungen auf einen Klick

DataOps-Technologien sind fähig, Datenbanken und Anwendungen sofort zu installieren oder wiederherzustellen – ungeachtet der Größe des Datensatzes. Nutzer von DataOps-Plattformen haben damit die Option, so viele Kopien der Datenbestände wie nötig zu erstellen und für spezielle Analysen zu verwenden. Das ist beispielsweise für das Aufspüren von Bugs, bei Auswertungen und für Tests sinnvoll. Zudem lassen sich separate Ausgaben für unterschiedliche Versionen einer Applikation einrichten. Ein Entwickler kann bei Bedarf Data Pods zeitweise stilllegen und wieder aktivieren oder auch zwischen verschiedenen Data Pods hin und her wechseln.

DevOps

Delphix Dynamic Data Platform (Quelle: Delphix)

Integrierter Datenschutz durch Datenmaskierung

Die EU-Datenschutzgrundverordnung (DSGVO), die für alle Unternehmen ab 25. Mai 2018 verbindlich ist, schränkt das Verwenden personenbezogener Daten ein. Denn die DGVO fordert vom datenverarbeitenden Unternehmen, die personenbezogenen Angaben nachweislich zu anonymisieren oder pseudonymisieren. Das ist vor allem in der Software-Entwicklung kritisch, da oft eine Vielzahl von Daten ungeschützt auf unterschiedlichen Entwicklungs- und Testumgebungen abliegt. Auch wenn externe Entwickler Zugriff auf Unternehmensdaten benötigen, wird dies zur Herausforderung. Das „Maskieren“ personenbezogener Informationen ist eine sichere Möglichkeit, um Daten irreversibel zu anonymisieren. Dadurch lassen sich keine Rückschlüsse auf die Identität von Personen schließen. Gleichzeitig werden die sensitiven Daten mit fiktiven, aber realistischen Beständen ersetzt, welche das Entwickeln unter realen Bedingungen gewährleistet. Eine ausgereifte DataOps-Lösung verfügt dabei über Instrumente oder Schnittstellen zu Tools und Skripten von Drittanbietern, um eine gesetzeskonforme Datenmaskierung zu automatisieren.

Niedriger Speicherplatzbedarf, höhere Effizienz

Jede virtuelle Datenkopie benötigt nur einen Bruchteil des Speicherplatzes der physischen Version. Aus 10 TByte Produktivdaten wird beispielsweise ein Data Pod von nur 10 GByte. Dadurch verschlanken sich Entwicklungs- und Testumgebungen oft bis auf ein Drittel. Entwickler arbeiten zudem produktiver, weil sie nicht mehr bis zu 50 Prozent ihrer Arbeitszeit mit Verwaltungsprozessen verschwenden. Der Nutzer kontrolliert seine Data Pods effizienter über eine Self-Service-Funktion. Zudem stehen Entwicklern DevOps-Werkzeuge zur Verfügung, mit denen sich ihre Aufgaben und Prozesse automatisieren lassen. Dank Datenvirtualisierung- und Deduplizierungstechnik beschleunigt eine DataOps-Plattform auch die Datenübertragung, wodurch eine Cloud-Migration bis zu 50 Prozent schneller abläuft.

DataOps - so funktioniert's

Eine DataOps-Lösung lässt sich auf allen gängigen Hypervisors installieren. Standardschnittstellen binden Datenbanken wie Oracle, SQL Server, DB2, mySQL oder Sybase, aber auch Applikationen als Datenquellen ein. Von diesen Daten und Applikationen wird eine komprimierte Kopie erstellt, die ständig inkrementell mit der Datenbasis synchronisiert wird. Es werden also nur die Änderungen an den Datenquellen selbst in die Datenkopie übertragen. Die komprimierten Kopien, auch „Data Pods“ genannt, lassen sich in beliebiger Menge erstellen und können so für Entwickler, Tester oder Datenanalysten bereitgestellt werden. Individuelle Self-Service-Zugänge ermöglichen es Administratoren Zugriffsrechte festzulegen und die entsprechend benötigten Datensätze freizugeben. Somit lässt sich die nötige Kontrolle durch Daten-Administratoren mit der schnellen Bereitstellung von Daten für agiles Entwickeln und Testing in Einklang bringen. DataOps-Plattformen lassen sich sowohl in Unternehmensrechenzentren, in Public oder auch Hybrid-Clouds betreiben.  

Minas Botzoglou

 

Autor: Minas Botzoglou, Regional Director DACH bei Delphix

GRID LIST
Tb W190 H80 Crop Int Edfb0446c4d7b02ec6e9e4f9acaf3aad

Neues Release von iFinder5 elastic

IntraFind präsentiert die Version 5.2 von iFinder5 elastic. Die zentrale Neuerung der…
Tb W190 H80 Crop Int 9b4731a254f5866959e73e601ec536d6

objectiF RPM 4.3: Framework für digitale Transformation

microTOOL hat die Version 4.3 der Application Lifecycle Management Software objectiF RPM…
Tb W190 H80 Crop Int 9cc0f78c8e26d024ae4e442e61f01e6b

ALM Software objectiF RPM erscheint in Version 4.3

MicroTOOL GmbH veröffentlicht die Version 4.3 von objectiF RPM, einer Software für das…
Tb W190 H80 Crop Int A6d123785255a923989fd0bca72d7744

Neue Version der ISMS-Software INDITOR ISO in den Startlöchern

Die neuen Features der ISMS-Software INDITOR ISO, von Contechnet, liefern ein…
Tb W190 H80 Crop Int A799384e8f64b5f22b4b21cf90c436ab

Business Intelligence Software - ab welcher Unternehmensgröße wichtig?

Kaum ein Unternehmen hat heute noch die Möglichkeit, sich auf lange Reaktionszeiten zu…
Tb W190 H80 Crop Int 2d1f2dc7edd2b7193895396bbfc10ab3

DevOps nutzen und Anwendungen aufrechterhalten

Die Herausforderung bei DevOps-orientierten IT-Betriebsmodellen besteht darin, dass sie…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security