Individualität und was sie mit Big Data zu tun hat

Integration ist nicht länger mehr nur die IT-seitige Automatisierung existierender Prozesse. Moderne Integrationslösungen sollen bessere Vorhersagen unterstützen, individuelle Massenfertigung (Mass Customization) und individuell spezifizierbare Produkte (Mass Personalization) ermöglichen und zugleich Prozesse leichter an neue Vorgaben anpassen können. Zeit für einen bahnbrechend anderen Integrationsansatz.
   
Innovativer Integrationsansatz
Der Begriff der IT hat sich über die Jahrzehnte hinweg stetig weiterentwickelt. Von der Integration der ersten Computer in die Arbeitsabläufe von Unternehmen über die ersten Schritte, Daten zwischen Anwendungen auszutauschen, bis hin zu den diversen Stufen, Prozesse zu automatisieren und die für die Prozessschritte notwendigen Informationen auch von externen Quellen zu beziehen. Früh schon gab es Ideen, wie eine ideale oder zumindest optimierte Struktur aussehen könnte, das Entwicklungstempo wurde aber in allen Phasen durch die Bandbreite der Kommunikationsinfrastruktur bestimmt. Konzepte wie E-Commerce und Cloud Computing wurden erst mit Daten-Flatrates und leistungsfähigen Datenautobahnen praktikabel.
 
Was sich über die Jahre hinweg nicht geändert hat, sind die zentralen Aufgaben von IT-Integration: Kosten zu senken, Prozesse zuverlässiger und Unternehmen erfolgreicher zumachen. Lange Zeit war es dazu ausreichend, vorhandene Abläufe in Software und IT-Strukturen abzubilden, um Effizienzsteigerungen zu erzielen.Heute gibt es für jede Aufgabe eine Fülle an Software undKonzepte wie SOA gehen dazu über, Redundanzen durch Mehrfachverwertung von Prozessbausteinen weiter zu reduzieren. Was automatisiert werden konnte, ist in den meisten Fällen automatisiert.
 
Wissen, was passiert, statt wissen, warum etwas passierte
 
Eine der zentralen Aufgaben der IT war  zugleich mit einigen Herausforderungen an Integrationslösungen verbunden: Business Intelligence (BI). Um aus der Masse der vorhandenen Daten Erkenntnisse gewinnen zu können, bedurfte es kostspieliger Data Warehouses, zeitaufwendiger Datentransformationen und – aufbereitungen und hochspezialisierter Teams für die Abfragen und Reports. Und auch wenn klassische BI ihre Berechtigung hat, um langfristige Trends zu untersuchen und Entwicklungen aufzudecken, die in Kurzzeitanalysen nicht signifikant hervortreten, was sie liefern, ist allzu oft eine Erklärung, warumetwas gelang oder schiefging, und eine Prognose, die darauf fußt, dass die Dinge wie bisher weitergehen. Bei dem Tempo, das technischer Fortschritt und Verbrauchertrends heute vorlegen, ist das nicht länger genug.
 
Es sind „Breakthrough Applications“, bahnbrechende und wegweisende Applikationen, gefragt, die dem „hinterher ist jeder schlauer“ ein Ende bereiten. Die Anforderungen an solche Lösungen sind inzwischen hinreichend beschrieben. Sie müssen je nach Einsatzzweck und Branche in Echtzeit oder doch zumindest sehr zeitnah auf Basis der aktuellen, transaktionalenDaten sowie der unstrukturierten Daten eines Unternehmens den Mitarbeitern auf allen Entscheidungsebenen die jeweils relevanten Informationen sowie Möglichkeiten für Drill Downs zur Verfügung stellen. Zudem sollten Prozesse und Anweisungen, die aufgrund dieser Informationen initiiert werden müssen, direkt aus der Anwendung heraus gestartet werden können. Und in den schönen neuen oder smarteren Werbewelten sieht das auch immer ganz einfach aus. Für die Integration ergeben sich an dieser Stelle aber neue und nicht zu unterschätzende Herausforderungen.
 
Herausforderung Datentransformation
 
Auch wenn viele Hersteller für ihre Lösungen auf standardisierte Protokolle setzen, gibt es doch immer die Notwendigkeit, unterschiedliche Versionen dieser Protokolle und individuelle Auslegungen von Feldinhalten für den eigenen Einsatz zu normalisieren. Protokolle wie UN/EDIFACT oder HL7 werden kontinuierlich weiterentwickelt und nicht jeder Anbieter kann oder will jede Änderung in seine Anwendungen übernehmen, solange er eine gültige Version im Einsatz hat. Zudem empfiehlt es sich, die einzelnen Transformationsschritte zu sichern, sei es, um eine eventuelle Fehlersuche zu erleichtern, oder auch nur, um den Nachweis führen zu können, dass die empfangenen Daten nicht den vereinbarten Spezifikationen entsprachen. Die verwendete Datendrehscheibe sollte also nicht nur alle relevanten Protokolle beherrschen, sondern auch über eine eigene, leistungsfähige Datenbank verfügen, da die Prozessgeschwindigkeit nicht unter der Revisionsfähigkeit leiden darf.
 
Herausforderung Datenformate und Big Data
 

Der Siegeszug individueller Massenfertigung (Mass Customization) und individuell spezifizierbarer Produkte (Mass Personalization) ist nicht zu stoppen. Und das betrifft nicht allein physische Konsumgüter. Endverbraucher, aber immer öfter auch Unternehmen, verlangen nach Lösungen, die auf ihre Anforderungen hin maßgeschneidert sind. Es reicht nicht länger, eine SmartphoneApp mit allen Restaurants einer Stadt anzubieten. Der moderne User will im Augenblick der Suche das gastronomische Angebot in tausend Meter Umkreis, um seinen Standort mit Speisekarte und Ranking durch die Gäste haben. Zudem eine verlinkte Rufnummer für die Reservierung und den Taxiruf für den Heimweg. Er möchte individuell zusammengestellte Angebote der von ihm genutzten E-Commerce-Plattformen, aber bitte nicht nur von der letzten Bestellung.

 
Was Menschen heute aus ihrem privaten Leben kennen,möchten sie natürlich auch in ihrem Arbeitsumfeld nicht missen. Inzwischen gibt es Krankenhäuser, die ihre Ärzte mit iPads & Co. auf Visite schicken. Und natürlich sollten die Informationen für Ärzte und Pfleger sinnvoll aufbereitet sein, unabhängig, aus welcher Quelle sie stammen. Sie sollten zudem am Behandlungsort auf dem jeweils sinnvollsten Ausgabegerät angezeigt werden können. Kundenservice ohne eine permanenteÜberwachen von Sozial Media kann in Windeseile zu irreparablen Imageschäden führen. Gleiches gilt für die Überwachung von PR und Marketingmaßnahmen. Es gilt aber nicht nur negative Effekte abzuwenden, sondern auch positive Trends rechtzeitig zu erkennen und zu unterstützen.
 
Schätzungen gehen davon aus, dass 80+ Prozent aller Informationen als unstrukturierte Daten vorliegen. Als Texte, Notizen, Bilder, in Social Media-Netzwerken, auf Papierformularen als Mindmaps und Scribbles und natürlich in den unterschiedlichsten elektronischen Datenformaten.
 
BI allein hilft hier nicht mehr weiter. Kontextsensitive Textanalyse ist gefragt und eine Infrastruktur, die nativ in der Lage ist, die unterschiedlichen Datenobjekte in ihrer ursprünglichen Form zu speichern und zu verwalten, ohne erst aufwendige Mappingprozesse durchlaufen zu müssen, um sie in relationale Strukturen zu pressen oder gar mit Blobs arbeiten zu müssen. Near Realtime ist mit solch aufwendigen Strukturen nahezu unmöglich oder erfordert horrende Hardwarekosten. Die Analysen müssen stattdessen in Echtzeit auf Datenvolumina angewendet werden, die immer öfter die Kriterien für Big Data erfüllen, stammen sie nun aus sozialen Netzen, aus Sensorplattformen, wie sie beim Smart Metering Verwendung finden, oder aus Datenströmen wie Börsenticks oder Wetterdaten. Und es ist davon auszugehen, darin sind sich alle Prognosen einig, dass Datenmengen, Datenkomplexität und Frequenz der Datengenerierung in den kommenden Jahren weiter dramatisch zunehmen werden.
 
Best of Breed auf einer Plattform
 
InterSystems verfolgt mit seiner Integrations- und Entwicklungsplattformeinen Ansatz, der es CIOs, Integrationsverantwortlichen, aber auch Entwicklern erlaubt, mit den besten am Markt verfügbaren Applikationen für einzelne Herausforderungen zu arbeiten, indem sie über eine Infrastruktur miteinander vernetzt werden, die keine Paradigmen bei Datenformaten unterliegt Die Datenbank unter InterSystems Ensemble verfügt über eine multidimensionale Struktur, die Objekte so handhaben kann, wie sie anfallen. Zugleich verfügt Ensemble mit DeepSee und iKnow über zwei tief in die Applikation verwobene Technologien, die zum einen Echtzeit-BI auf transaktionale Daten und zum anderen die einfache und präzise Analyse von Texten erlauben. Je nach Anforderung kann Ensemble SOA-Strukturen unterstützen, als Enterprise Service Bus operieren oder als professionelle Datendrehscheibe. Fehlende oder ergänzende Elemente in der Auswertung, klassische Composite Applications, können durch die integrierte Entwicklungsumgebung schnell und zeitnah entwickelt werden. In vielen Fällen reicht aber schon die leistungsstarke Prozessmodellierung.
 
Vor allem aber erlaubt Ensemble den sicheren Umstieg auf neue Strukturen. Vorhandene und bewährte Prozesse bleiben bestehen und werden weiter genutzt. Kein Rip & Replace gefährdet die zentrale Aufgabe des IT-Verantwortlichen: den sicheren Betrieb der IT-Infrastruktur und den störungsfreien Ablauf aller Unternehmensprozesse. Der Einstieg in Konzepte wie Big Data, Cloud Computing oder, falls noch nicht geschehen, SOA erfolgt graduell.Mitarbeiter haben nun Zugriff auf neue, relevante Daten, die sie zuvor mühsam zusammensuchen mussten.
PETER W. MENGEL

Anzeige
Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.