Anzeige

Anzeige

VERANSTALTUNGEN

Be CIO Summit
26.09.19 - 26.09.19
In Design Offices Frankfurt Wiesenhüttenplatz, Frankfurt am Main

3. DIGITAL MARKETING 4HEROES CONFERENCE
08.10.19 - 08.10.19
In Wien

it-sa 2019
08.10.19 - 10.10.19
In Nürnberg, Messezentrum

3. DIGITAL MARKETING 4HEROES CONFERENCE
15.10.19 - 15.10.19
In München

PM Forum 2019
22.10.19 - 23.10.19
In Nürnberg, NCC Ost

Anzeige

Anzeige

Mann mit Augenbinde

Mangelnde Datensichtbarkeit behindert Big Data-Analysen und birgt Gefahren in Bezug auf DSGVO und Compliance. TmaxSoft nennt 5 Faktoren, die IT-Entscheider prüfen sollten.

Laut der aktuellen IDC Data Age 2025 Studie werden bis zum Jahr 2025 weltweit rund 163 Zettabyte an Daten generiert. Das entspricht einer Verzehnfachung gegenüber heute und in etwa der Datenmenge, um das gesamte Netflix-Filmmaterial 489 Millionen Mal anzuschauen. 60 Prozent aller anfallenden Daten werden dann von Unternehmen generiert. Für sie kann das Sammeln und Auswerten großer Datenmengen wertvolle Einsichten zur Verbesserung von Steuerungsprozessen und Kundenbeziehungen für mehr Wirtschaftlichkeit bieten.

„Mangelhafte Datensichtbarkeit kann jedoch die Aussagekraft und das Geschäftspotenzial von Big Data-Analysen erheblich schmälern. Obendrein besteht die Gefahr, gegen Gesetze wie die neue DSGVO (EU-Datenschutzgrundverordnung) zu verstoßen“, warnt Thomas Hellweg, Vice President und Geschäftsführer DACH von TmaxSoft. Der Spezialist für Cloud-, Infrastruktur- und Legacy-Modernisierung hat 5 Punkte zusammengestellt, die IT-Entscheider im Zuge ihrer Big Data-Projekte prüfen sollten:

1. Ist die Infrastruktur fit, um Big Data-Potenziale zu nutzen?

Bereits innerhalb der kommenden 2 Jahre erwarten die IDC Analysten einen weltweiten Anstieg der aus Big Data- und Business-Analysen generierten Einnahmen auf über 203 Milliarden US-Dollar. Das gewinnbringende Ausschöpfen dieser Analysen erfordert ein Maximum an Datensichtbarkeit. Für viele Unternehmen ist gerade das eine große Herausforderung: Häufig fehlt es zudem an Speicherkapazität, hoch performanten Werkzeugen und Anwendungen sowie Datenfreigabeprozessen innerhalb ihrer IT-Infrastruktur, um große, unstrukturierte Datenmengen verarbeiten, analysieren und geschäftlich nutzen zu können. Um von Big Data Analysen zu profitieren, sollten IT-Verantwortliche daher prüfen, ob ihre Infrastruktur die erforderliche Datensichtbarkeit unterstützt oder eher behindert.

2. Ist Ihre Datenbank ein Nadelöhr?

Ein Kernelement für die Datenanalyse sind Datenbank-Systeme. Veraltete Datenbanken bzw. relationale Datenbankmanagement-Systeme (RDBMS) können den potenziellen Mehrwert Big Data-basierter Business-Analysen empfindlich verringern, wenn sie nicht über die erforderliche Funktionalität, Leistungsstärke und Skalierbarkeit verfügen. Viele RDBMS sind nicht in der Lage, hohe Workloads in Virtual Data Center- oder Cloud-Umgebungen zu bewältigen.

Voraussetzung dafür sind besonders schnelle Zugriffszeiten, wie sie etwa von In-Memory-Datenbanken geboten werden. Diese laden Daten schon beim Start in den Arbeitsspeicher, während klassische Datenbanken die Daten erst bei Bedarf vom Festplattenlaufwerk holen. Damit erzielen In-Memory Datenbanken deutlich höhere Zugriffs- und Verarbeitungs-geschwindigkeiten. Darüber hinaus können sie sowohl strukturierte als auch unstrukturierte Daten aus verschiedenen Vorsystemen ohne zwingende vorherige Aggregation analysieren. Die direkte Verwendung sehr großer Datenmengen aus dem Transaktionssystem vereinfacht die Datenanalyse erheblich.

3. Behindern hohe Lizenzkosten die Investition in neue Systeme?

Viele Hersteller bieten ihre Lösungen als sogenanntes Asset-Paket aus Hardware und Software an. Damit binden sie Anwender an jahrelangen Hardware-Support mit beständig steigenden Wartungskosten.

Zusätzlich erweisen sich bisherige Lizenzmodelle zunehmend als ein zu enges Korsett für virtuelle Umgebungen. Denn unabhängig von der tatsächlichen Nutzung werden Lizenzgebühren für viele DBMS pauschal auf sämtliche CPUs der virtuellen Server, auf denen die Datenbank läuft, erhoben. Um explodierende Lizenzkosten im Virtual Data Center abzuwenden, denkt beispielsweise unter Oracle-Anwendern bereits jeder Dritte über eine Substitution der Datenbank nach.

Unternehmen sollten sich daher nach rein Software-basierten Datenbank-Alternativen mit flexiblen Lizenz-Modellen umsehen, die herstellerunabhängig auf Standard-Hardware eingesetzt werden können. Solche Lösungen können die gleichen Leistungsmerkmale wie In-Memory-Datenbanken bereitstellen und eignen sich damit zur Big Data-Analyse.

4. Können Legacy-Daten in die Datenanalysen integriert werden?

Die Kombination aktueller Datenanalysen mit der Aussagekraft historischer Daten erweitert den wirtschaftlichen Nutzen der Analysen. So lassen sich veritablen Business Intelligence-Vorteile gegenüber Mitbewerbern erzielen – beispielsweise im Wettbewerb traditioneller Banken gegenüber FinTech-Unternehmen.

Vielen Unternehmen fehlt jedoch der Einblick in die über viele Jahrzehnte gewachsenen Legacy-Kernsysteme wie Mainframes. Hier empfiehlt sich die Prüfung neuer Methoden, wie eine 1:1 Migration von Mainframe-Anwendungen in eine offenes oder Cloud-System über einen Mainframe Rehosting. Im Zuge der Migration wird auch der Programmcode der Altanwendungen deutlich „entschlackt“, für offene Systeme lesbar und damit nutzbar gemacht.

5. Gefährden „Blinde Daten“ das Einhalten von Compliance-Vorgaben wie DSGVO?

Unzureichende Datensichtbarkeit kann auch zu einem erheblichen Compliance-Risiko werden – insbesondere, wenn Herkunft, Umfang, Verarbeitung, Sicherheit und Speicherort personenbezogener Daten nicht nachvollzogen werden können. Auch in diesem Punkt erweisen sich Legacy-Anwendungen aufgrund ihres Alters, zahlreicher Iterationen und Revisionen zur Navigation als ernstes Hindernis. Denn der Zugriff auf den Quellcode der Altanwendungen ist entweder nicht möglich oder es fehlen die entsprechenden IT-Fachleute, die noch mit „alten“ Programmiersprachen, wie Assembler oder PL/1, umgehen können.

Neben anderen Compliance-Richtlinien zwingt die ab 25. Mai 2018 in Kraft tretende DSGVO CIOs dazu, das Risiko intransparenter Legacy-Systeme und mangelnder Datensichtbarkeit über alle Systeme hinweg neu zu bewerten und geeignete Maßnahmen zur Abwendung von Sanktionen zu ergreifen. 

www.tmaxsoft.com
 

GRID LIST
Korallenriff

Kristallklare Data Lakes

Die Bereinigung von Stammdaten sorgt dafür, dass Mitarbeiter ein besseres Gesamtbild über…
Zwei IT-Ingenieure im Rechenzentrum

Schrittweise Migration von Mainframe-Anwendungen

Großrechner, sogenannte Mainframes, sind aus dem Finanz- und Bankenwesen kaum…
Daten unter der Lupe

Daten sind wertvoll, aber die Qualität muss stimmen

Im Zuge der fortgeschrittenen Digitalisierung sind Daten zu einem entscheidenden Faktor…
Augmented Reality

Augmented Reality hebt Datenanalysen in neue Dimensionen

Ein Beispiel für die neuen Möglichkeiten im Bereich AR ist der Bereich Trading im…
Datenchaos

Veraltete und obsolete Dateien bremsen Unternehmen aus

PC-Mitarbeiter in deutschen Unternehmen verbringen rund 30 bis 60 Minuten ihrer täglichen…
Tour de France

Tour de Data: Spitzenleistung und Transparenz

Im Windschatten fahren war gestern – heute nutzen Radrennfahrer bei der Tour de France…