Anzeige

Anzeige

VERANSTALTUNGEN

IT-SOURCING 2019 – Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

IT-Sourcing 2019 - Einkauf meets IT
09.09.19 - 10.09.19
In Düsseldorf

ACMP Competence Days Berlin
11.09.19 - 11.09.19
In Stiftung Deutsches Technikmuseum Berlin, Berlin

MCC CyberRisks - for Critical Infrastructures
12.09.19 - 13.09.19
In Hotel Maritim, Bonn

Rethink! IT 2019
16.09.19 - 17.09.19
In Berlin

Anzeige

Anzeige

Mann mit Augenbinde

Mangelnde Datensichtbarkeit behindert Big Data-Analysen und birgt Gefahren in Bezug auf DSGVO und Compliance. TmaxSoft nennt 5 Faktoren, die IT-Entscheider prüfen sollten.

Laut der aktuellen IDC Data Age 2025 Studie werden bis zum Jahr 2025 weltweit rund 163 Zettabyte an Daten generiert. Das entspricht einer Verzehnfachung gegenüber heute und in etwa der Datenmenge, um das gesamte Netflix-Filmmaterial 489 Millionen Mal anzuschauen. 60 Prozent aller anfallenden Daten werden dann von Unternehmen generiert. Für sie kann das Sammeln und Auswerten großer Datenmengen wertvolle Einsichten zur Verbesserung von Steuerungsprozessen und Kundenbeziehungen für mehr Wirtschaftlichkeit bieten.

„Mangelhafte Datensichtbarkeit kann jedoch die Aussagekraft und das Geschäftspotenzial von Big Data-Analysen erheblich schmälern. Obendrein besteht die Gefahr, gegen Gesetze wie die neue DSGVO (EU-Datenschutzgrundverordnung) zu verstoßen“, warnt Thomas Hellweg, Vice President und Geschäftsführer DACH von TmaxSoft. Der Spezialist für Cloud-, Infrastruktur- und Legacy-Modernisierung hat 5 Punkte zusammengestellt, die IT-Entscheider im Zuge ihrer Big Data-Projekte prüfen sollten:

1. Ist die Infrastruktur fit, um Big Data-Potenziale zu nutzen?

Bereits innerhalb der kommenden 2 Jahre erwarten die IDC Analysten einen weltweiten Anstieg der aus Big Data- und Business-Analysen generierten Einnahmen auf über 203 Milliarden US-Dollar. Das gewinnbringende Ausschöpfen dieser Analysen erfordert ein Maximum an Datensichtbarkeit. Für viele Unternehmen ist gerade das eine große Herausforderung: Häufig fehlt es zudem an Speicherkapazität, hoch performanten Werkzeugen und Anwendungen sowie Datenfreigabeprozessen innerhalb ihrer IT-Infrastruktur, um große, unstrukturierte Datenmengen verarbeiten, analysieren und geschäftlich nutzen zu können. Um von Big Data Analysen zu profitieren, sollten IT-Verantwortliche daher prüfen, ob ihre Infrastruktur die erforderliche Datensichtbarkeit unterstützt oder eher behindert.

2. Ist Ihre Datenbank ein Nadelöhr?

Ein Kernelement für die Datenanalyse sind Datenbank-Systeme. Veraltete Datenbanken bzw. relationale Datenbankmanagement-Systeme (RDBMS) können den potenziellen Mehrwert Big Data-basierter Business-Analysen empfindlich verringern, wenn sie nicht über die erforderliche Funktionalität, Leistungsstärke und Skalierbarkeit verfügen. Viele RDBMS sind nicht in der Lage, hohe Workloads in Virtual Data Center- oder Cloud-Umgebungen zu bewältigen.

Voraussetzung dafür sind besonders schnelle Zugriffszeiten, wie sie etwa von In-Memory-Datenbanken geboten werden. Diese laden Daten schon beim Start in den Arbeitsspeicher, während klassische Datenbanken die Daten erst bei Bedarf vom Festplattenlaufwerk holen. Damit erzielen In-Memory Datenbanken deutlich höhere Zugriffs- und Verarbeitungs-geschwindigkeiten. Darüber hinaus können sie sowohl strukturierte als auch unstrukturierte Daten aus verschiedenen Vorsystemen ohne zwingende vorherige Aggregation analysieren. Die direkte Verwendung sehr großer Datenmengen aus dem Transaktionssystem vereinfacht die Datenanalyse erheblich.

3. Behindern hohe Lizenzkosten die Investition in neue Systeme?

Viele Hersteller bieten ihre Lösungen als sogenanntes Asset-Paket aus Hardware und Software an. Damit binden sie Anwender an jahrelangen Hardware-Support mit beständig steigenden Wartungskosten.

Zusätzlich erweisen sich bisherige Lizenzmodelle zunehmend als ein zu enges Korsett für virtuelle Umgebungen. Denn unabhängig von der tatsächlichen Nutzung werden Lizenzgebühren für viele DBMS pauschal auf sämtliche CPUs der virtuellen Server, auf denen die Datenbank läuft, erhoben. Um explodierende Lizenzkosten im Virtual Data Center abzuwenden, denkt beispielsweise unter Oracle-Anwendern bereits jeder Dritte über eine Substitution der Datenbank nach.

Unternehmen sollten sich daher nach rein Software-basierten Datenbank-Alternativen mit flexiblen Lizenz-Modellen umsehen, die herstellerunabhängig auf Standard-Hardware eingesetzt werden können. Solche Lösungen können die gleichen Leistungsmerkmale wie In-Memory-Datenbanken bereitstellen und eignen sich damit zur Big Data-Analyse.

4. Können Legacy-Daten in die Datenanalysen integriert werden?

Die Kombination aktueller Datenanalysen mit der Aussagekraft historischer Daten erweitert den wirtschaftlichen Nutzen der Analysen. So lassen sich veritablen Business Intelligence-Vorteile gegenüber Mitbewerbern erzielen – beispielsweise im Wettbewerb traditioneller Banken gegenüber FinTech-Unternehmen.

Vielen Unternehmen fehlt jedoch der Einblick in die über viele Jahrzehnte gewachsenen Legacy-Kernsysteme wie Mainframes. Hier empfiehlt sich die Prüfung neuer Methoden, wie eine 1:1 Migration von Mainframe-Anwendungen in eine offenes oder Cloud-System über einen Mainframe Rehosting. Im Zuge der Migration wird auch der Programmcode der Altanwendungen deutlich „entschlackt“, für offene Systeme lesbar und damit nutzbar gemacht.

5. Gefährden „Blinde Daten“ das Einhalten von Compliance-Vorgaben wie DSGVO?

Unzureichende Datensichtbarkeit kann auch zu einem erheblichen Compliance-Risiko werden – insbesondere, wenn Herkunft, Umfang, Verarbeitung, Sicherheit und Speicherort personenbezogener Daten nicht nachvollzogen werden können. Auch in diesem Punkt erweisen sich Legacy-Anwendungen aufgrund ihres Alters, zahlreicher Iterationen und Revisionen zur Navigation als ernstes Hindernis. Denn der Zugriff auf den Quellcode der Altanwendungen ist entweder nicht möglich oder es fehlen die entsprechenden IT-Fachleute, die noch mit „alten“ Programmiersprachen, wie Assembler oder PL/1, umgehen können.

Neben anderen Compliance-Richtlinien zwingt die ab 25. Mai 2018 in Kraft tretende DSGVO CIOs dazu, das Risiko intransparenter Legacy-Systeme und mangelnder Datensichtbarkeit über alle Systeme hinweg neu zu bewerten und geeignete Maßnahmen zur Abwendung von Sanktionen zu ergreifen. 

www.tmaxsoft.com
 

GRID LIST
Tb W190 H80 Crop Int Bafff3f0464c40558319bba61f24f6db

Gut oder schlecht? – Datenqualität richtig einschätzen

Das Qualitätsmanagement für Stamm- und Bewegungsdaten ist in die Liga der Top-Themen für…
Schrauben und Spulen

Das Tor zu den Werkstätten der Welt - TecDoc Catalogue

Werkstätten rund um den Globus arbeiten mit dem TecDoc-Catalogue, der als einer der…
Brexit

Brexit: Rechtssicherheit beim Datenmanagement schaffen

Unternehmen müssen sich wegen des drohenden Brexits intensiv mit ihrer eigenen…
Tb W190 H80 Crop Int Bc9b8e9447d4d11374fda6a24bcb134e

Datenmanagement braucht Manpower mit Know-how

Wer in Zeiten der Digitalisierung als Unternehmen weiterhin wirtschaftlich arbeiten will,…
Trends 2019

Diese Trends bestimmen 2019 das Datenmanagement

Da Datenmanagement und Analytik enger integriert werden, können Unternehmen Daten in…
Tb W190 H80 Crop Int Da3476a7fe4365d6a999430da0217d3f

Big Data ohne Kontext nützt gar nichts

Das wahre Gold des digitalen Zeitalters sind Daten. So wächst auch im Industriekontext…