VERANSTALTUNGEN
USU World 2018
06.06.18 - 07.06.18
In World Conference Center Bonn

CEBIT 2018
11.06.18 - 15.06.18
In Hannover

ERP Tage Aachen
19.06.18 - 21.06.18
In Aachen

next IT Con
25.06.18 - 25.06.18
In Nürnberg

XaaS Evolution 2018
01.07.18 - 03.07.18
In H4 Hotel Berlin Alexanderplatz

Mann mit Augenbinde

Mangelnde Datensichtbarkeit behindert Big Data-Analysen und birgt Gefahren in Bezug auf DSGVO und Compliance. TmaxSoft nennt 5 Faktoren, die IT-Entscheider prüfen sollten.

Laut der aktuellen IDC Data Age 2025 Studie werden bis zum Jahr 2025 weltweit rund 163 Zettabyte an Daten generiert. Das entspricht einer Verzehnfachung gegenüber heute und in etwa der Datenmenge, um das gesamte Netflix-Filmmaterial 489 Millionen Mal anzuschauen. 60 Prozent aller anfallenden Daten werden dann von Unternehmen generiert. Für sie kann das Sammeln und Auswerten großer Datenmengen wertvolle Einsichten zur Verbesserung von Steuerungsprozessen und Kundenbeziehungen für mehr Wirtschaftlichkeit bieten.

„Mangelhafte Datensichtbarkeit kann jedoch die Aussagekraft und das Geschäftspotenzial von Big Data-Analysen erheblich schmälern. Obendrein besteht die Gefahr, gegen Gesetze wie die neue DSGVO (EU-Datenschutzgrundverordnung) zu verstoßen“, warnt Thomas Hellweg, Vice President und Geschäftsführer DACH von TmaxSoft. Der Spezialist für Cloud-, Infrastruktur- und Legacy-Modernisierung hat 5 Punkte zusammengestellt, die IT-Entscheider im Zuge ihrer Big Data-Projekte prüfen sollten:

1. Ist die Infrastruktur fit, um Big Data-Potenziale zu nutzen?

Bereits innerhalb der kommenden 2 Jahre erwarten die IDC Analysten einen weltweiten Anstieg der aus Big Data- und Business-Analysen generierten Einnahmen auf über 203 Milliarden US-Dollar. Das gewinnbringende Ausschöpfen dieser Analysen erfordert ein Maximum an Datensichtbarkeit. Für viele Unternehmen ist gerade das eine große Herausforderung: Häufig fehlt es zudem an Speicherkapazität, hoch performanten Werkzeugen und Anwendungen sowie Datenfreigabeprozessen innerhalb ihrer IT-Infrastruktur, um große, unstrukturierte Datenmengen verarbeiten, analysieren und geschäftlich nutzen zu können. Um von Big Data Analysen zu profitieren, sollten IT-Verantwortliche daher prüfen, ob ihre Infrastruktur die erforderliche Datensichtbarkeit unterstützt oder eher behindert.

2. Ist Ihre Datenbank ein Nadelöhr?

Ein Kernelement für die Datenanalyse sind Datenbank-Systeme. Veraltete Datenbanken bzw. relationale Datenbankmanagement-Systeme (RDBMS) können den potenziellen Mehrwert Big Data-basierter Business-Analysen empfindlich verringern, wenn sie nicht über die erforderliche Funktionalität, Leistungsstärke und Skalierbarkeit verfügen. Viele RDBMS sind nicht in der Lage, hohe Workloads in Virtual Data Center- oder Cloud-Umgebungen zu bewältigen.

Voraussetzung dafür sind besonders schnelle Zugriffszeiten, wie sie etwa von In-Memory-Datenbanken geboten werden. Diese laden Daten schon beim Start in den Arbeitsspeicher, während klassische Datenbanken die Daten erst bei Bedarf vom Festplattenlaufwerk holen. Damit erzielen In-Memory Datenbanken deutlich höhere Zugriffs- und Verarbeitungs-geschwindigkeiten. Darüber hinaus können sie sowohl strukturierte als auch unstrukturierte Daten aus verschiedenen Vorsystemen ohne zwingende vorherige Aggregation analysieren. Die direkte Verwendung sehr großer Datenmengen aus dem Transaktionssystem vereinfacht die Datenanalyse erheblich.

3. Behindern hohe Lizenzkosten die Investition in neue Systeme?

Viele Hersteller bieten ihre Lösungen als sogenanntes Asset-Paket aus Hardware und Software an. Damit binden sie Anwender an jahrelangen Hardware-Support mit beständig steigenden Wartungskosten.

Zusätzlich erweisen sich bisherige Lizenzmodelle zunehmend als ein zu enges Korsett für virtuelle Umgebungen. Denn unabhängig von der tatsächlichen Nutzung werden Lizenzgebühren für viele DBMS pauschal auf sämtliche CPUs der virtuellen Server, auf denen die Datenbank läuft, erhoben. Um explodierende Lizenzkosten im Virtual Data Center abzuwenden, denkt beispielsweise unter Oracle-Anwendern bereits jeder Dritte über eine Substitution der Datenbank nach.

Unternehmen sollten sich daher nach rein Software-basierten Datenbank-Alternativen mit flexiblen Lizenz-Modellen umsehen, die herstellerunabhängig auf Standard-Hardware eingesetzt werden können. Solche Lösungen können die gleichen Leistungsmerkmale wie In-Memory-Datenbanken bereitstellen und eignen sich damit zur Big Data-Analyse.

4. Können Legacy-Daten in die Datenanalysen integriert werden?

Die Kombination aktueller Datenanalysen mit der Aussagekraft historischer Daten erweitert den wirtschaftlichen Nutzen der Analysen. So lassen sich veritablen Business Intelligence-Vorteile gegenüber Mitbewerbern erzielen – beispielsweise im Wettbewerb traditioneller Banken gegenüber FinTech-Unternehmen.

Vielen Unternehmen fehlt jedoch der Einblick in die über viele Jahrzehnte gewachsenen Legacy-Kernsysteme wie Mainframes. Hier empfiehlt sich die Prüfung neuer Methoden, wie eine 1:1 Migration von Mainframe-Anwendungen in eine offenes oder Cloud-System über einen Mainframe Rehosting. Im Zuge der Migration wird auch der Programmcode der Altanwendungen deutlich „entschlackt“, für offene Systeme lesbar und damit nutzbar gemacht.

5. Gefährden „Blinde Daten“ das Einhalten von Compliance-Vorgaben wie DSGVO?

Unzureichende Datensichtbarkeit kann auch zu einem erheblichen Compliance-Risiko werden – insbesondere, wenn Herkunft, Umfang, Verarbeitung, Sicherheit und Speicherort personenbezogener Daten nicht nachvollzogen werden können. Auch in diesem Punkt erweisen sich Legacy-Anwendungen aufgrund ihres Alters, zahlreicher Iterationen und Revisionen zur Navigation als ernstes Hindernis. Denn der Zugriff auf den Quellcode der Altanwendungen ist entweder nicht möglich oder es fehlen die entsprechenden IT-Fachleute, die noch mit „alten“ Programmiersprachen, wie Assembler oder PL/1, umgehen können.

Neben anderen Compliance-Richtlinien zwingt die ab 25. Mai 2018 in Kraft tretende DSGVO CIOs dazu, das Risiko intransparenter Legacy-Systeme und mangelnder Datensichtbarkeit über alle Systeme hinweg neu zu bewerten und geeignete Maßnahmen zur Abwendung von Sanktionen zu ergreifen. 

www.tmaxsoft.com
 

GRID LIST
Schatzkiste

Heben Sie Ihren Datenschatz mithilfe von Self-Service-BI

Unternehmen stehen heute einer riesigen Datenmenge gegenüber, die eine Unmenge an…
Tb W190 H80 Crop Int Edfb0446c4d7b02ec6e9e4f9acaf3aad

Prognostische Analytik liefert Daten für bessere Entscheidungen

Traditionell konzentrieren sich Business-Intelligence (BI)-Berichte auf eine Analyse der…
Tb W190 H80 Crop Int 489dee67c6511f2f775a4da1af1b344d

Daten sind das neue Öl, aber Informationen sind das neue Gold

Branchenübergreifend wird in und von Unternehmen immer wieder die gleiche Frage gestellt:…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security