Individuelle Big-Data-Lösungen: Mit Transformationsstrategien
 zu neuen Produkten

Stefan Langhirt, Profi AGBig Data ist eines der beherrschenden Themen in den Unternehmen. Wie immer muss eine Lösung individuell aussehen. it management sprach darüber mit Stefan Langhirt, Geschäftsbereichsleiter Unternehmensstrategie & Business Operations bei der Profi AG, einem der großen Systemhäuser in Deutschland.

Ulrich Parthier: Das Wachstum großer Datenmengen in den Unternehmen ist unstrittig. Doch große Datenmengen an sich sind per se noch kein Mehrwert. Man muss daraus erst einen Nutzen für das Unternehmen schaffen. Welche Vorgehensweise empfehlen Sie Unternehmen?

Anzeige

Stefan Langhirt: In der Vergangenheit wurden geschäftskritische Entscheidungen aufgrund fehlender oder ungenügender Informationen oft aus dem Bauch heraus getroffen. Die Unsicherheit in diesen Entscheidungsprozessen kann heute dank neuer Analysemethoden erheblich reduziert werden, weil aus der Menge der vorliegenden Daten die wertschöpfungsrelevanten Informationen identifiziert werden können, auf deren Basis dann wesentlich fundierter entschieden werden kann. Darüber hinaus lassen sich durch intelligente Analysen und Auswertungen der vorliegenden Daten auch sehr werthaltige Prognosen für die Zukunft ableiten, die erhebliches Geschäftspotential bergen.

Ulrich Parthier: Wie lauten demnach die wichtigsten Fragen?

Stefan Langhirt: Daraus ergibt sich folgende Priorisierung: Welche Informationsbasis benötige ich, um schnelle und fundierte Entscheidungen treffen zu können? Welche Informationen helfen mir dabei, meine zukünftige Wertschöpfung zu optimieren beziehungsweise meine strategischen Ziele zu erreichen?

Ulrich Parthier: Um die Potenziale optimal umzusetzen, sind enorme Herausforderungen notwendig. Es sind ja nicht nur die Datenmengen, sondern auch unterschiedliche Datenstrukturen, -formate und Rahmenbedingungen wie real-time Verarbeitung und Fragen der Datensicherheit, -qualität und -speicherung von Bedeutung. Viele Unternehmen eröffnen Baustellen mit Einzelaspekten und Technologieprojekten. Fehlen nicht in der Regel Digitalisierungs-Strategien, um insgesamt auf den Strukturwandel zu reagieren?

„Die IT steht in der Pflicht sich auf die ändernden Anforderungen der Fachabteilungen und der Nutzer optimal einzustellen und einen sicheren Betrieb zu gewährleisten. Das sind wesentliche Anforderungen an eine Digitalisierungsstrategie.“

Stefan Langhirt: Das Potenzial der Digitalisierung und damit der gesamten Wertschöpfung ist in den Unternehmen bei weitem noch nicht erkannt worden. Die Treiber sind das mobile Arbeiten, die sich verändernde Netzinfrastruktur mit größeren und schnelleren Bandbreiten und natürlich auch das Cloud Computing. Die IT steht in der Pflicht sich auf die ändernden Anforderungen der Fachabteilungen und der Nutzer optimal einzustellen und einen sicheren Betrieb zu gewährleisten. Das sind wesentliche Anforderungen an eine Digitalisierungsstrategie.

Ulrich Parthier: Big Data gilt als logische Evolutionsstufe der IT. Wie gut sind die Unternehmen ihrer Ansicht nach darauf überhaupt vorbereitet?

Stefan Langhirt: Viele Unternehmen sind darauf nur punktuell vorbereitet. Sie konzentrieren sich in der Regel nur auf das Verwalten und das Management der Daten, also auf Themen wie Verfügbarkeit, Backup, Archivierung und Betrieb. Der Wert von Big Data liegt aber vielmehr darin, aus den großen Datenmengen, die in den verschiedenen Fachbereichen entstehen, relevante Informationen herauszufiltern, diese zu analysieren, zu verknüpfen und daraus einen Mehrwert für das gesamte Unternehmen zu generieren.

Ulrich Parthier: Können Sie den ganzheitlichen Ansatz an einem konkreten Beispiel aufzeigen?

Stefan Langhirt: Nehmen wir einfach ein Beispiel aus der Automobilbranche. Dort werden durch die logische Verknüpfung der einzelnen Informationssysteme im Fahrzeug (beispielsweise Distance Control, Spurhalteassistent, EPS, ABS, Infotainment, Navigationsdaten etc.) neue Anwendungen in Form ganzheitlicher Fahrassistenzsysteme entwickelt, die das Fahren wesentlich einfacherer und sicherer machen. Das Beispiel Auto zeigt, wie wichtig es auch für Unternehmen ist, einen ganzheitlichen Ansatz zu verfolgen.

Ulrich Parthier: Volume (Datenmenge), Velocity (Geschwindigkeit), Variety (unterschiedliche Datenbeschaffenheit), die drei großen Vs charakterisieren das Wesen von Big Data, nämlich komplex und heterogen, aber im Kern wertvoll. Damit einher geht eine neue Form der Visualisierung dieser Daten. Keine endlosen Zahlenkolonnen, sondern das was wir unter Visual Analytics bezeichnen. Also viel starker Tobak auf einmal, sowohl für die IT als auch die Anwender in den Unternehmen. Wie stehen Sie zur visuellen Datenaufbereitung?

Stefan Langhirt: Zahlenkolonnen und Tabellen sind sicher nicht der geeignete Weg zu schnellen und richtigen Entscheidungen. Die visuelle Aufbereitung ist das letzte, entscheidende Glied in der Kette der Analyse großer Datenmengen. Erst dadurch werden die Ergebnisse handhabbar und es entsteht ein Mehrwert. Diese Technologien haben sich in der letzten Zeit sehr gut weiterentwickelt, was zu wesentlich größerer Akzeptanz von Big Data Analysen und Methoden bei den Nutzern beigetragen hat.

Ulrich Parthier: Technologie, Management- Methoden, Strategieentwicklung: was muss sich ändern?

Stefan Langhirt: DB Research ist der Ansicht, dass um wettbewerbsfähig zu bleiben, die Akteure lernen müssen, ihren steigenden Datenpool mit modernen Managementmethoden zu verbinden und in adäquate Geschäftsstrategien sowie entsprechend angepasste Produkte und Dienstleistungen zu transformieren. Mag auch nicht allen Akteuren anfangs der große Wurf gelingen, so schlummere doch in vielen Geschäftsprozessen branchenübergreifend Effizienzpotenzial, das auch in kleinen Schritten gehoben werden kann. Als Beispiel werden Finanzinstitute genannt. Für diese könnte das etwa bedeuten, dass sich ihre Aufmerksamkeit weniger auf Finanzprodukte (beispielsweise Derivate) und andere neue, virtuelle Finanzprodukte richtet, sondern vielmehr auf die Bankdienste, die rund um den Finanzbereich entstehen (web-basierte Beratung, Informationsdienste, Foren etc.). Im Angebot der Bank werden künftig sicherlich mehr Dienste zu finden sein, die auf gefilterten Kundeninformationen basieren.

Ulrich Parthier: Sie haben ja kürzlich erst selbst so ein Transformationsprojekt in einem ganz anderen Geschäftsumfeld bei Media Control durchgeführt.

Stefan Langhirt: Richtig, hier ging es um die Einbindung von Daten aus Social Media-Kanälen in Charts. Das Unternehmen Media Control ist im Bereich der Marktforschung tätig und führt seit 1976 Abverkaufscharts im Musikbereich, bei Buch, Film und Games durch.

Ulrich Parthier: Was war die Herausforderung?

Stefan Langhirt: Wir standen vor einem Paradigmenwechsel. Bisher beschränkte sich die Marktforschung darauf, Zahlen im Nachgang zu Abverkäufen festzustellen. Nun sollten einerseits auf der Basis historischer Daten und anderseits auf der Grundlage von aktuellen Informationen Rückschlüsse auf künftige Titel mit Prognosen für den Absatz erstellt werden. Möglich wird dies durch die intensive Auswertung von Social Media Kanälen und deren Daten. Eine rein quantitative Auswertung der Social Media Daten – etwa der Facebook-Likes oder Twitter-Followers – wird vielfach praktiziert, greift aber zu kurz: Sie lässt die Frage nach dem „Warum“ unbeantwortet. Somit gehen nützliche Hintergrundinformationen für Verkaufsprognosen verloren. Und das, obwohl Leser ihre Leseerfahrung in sozialen Netzwerken wie Blogs, Foren oder auch in Reviews ausgiebig reflektieren und dadurch genau die benötigten relevanten Inhalte bieten.

Ulrich Parthier: Was war das Ziel?

Stefan Langhirt: media control suchte nach einer Lösung, Leserkommentare in Social Media Kanälen aufzugreifen, um sie den Kunden inhaltlich aufbereitet und verdichtet zur Verfügung zu stellen. Damit wird die Marktforschung um eine neue Dimension in der Beantwortung der Frage: „Was hat den Kunden dazu bewegt, einen Kauf zu tätigen?“ angereichert und erweitert. Ein weiteres Ziel war, typische Muster von Bestsellern zu erkennen und herauszuarbeiten, um Erfolge künftiger Titel prognostizieren zu können. Verlage können damit Einschätzungen über Erfolg oder Misserfolg besser treffen und Prognosen erstellen.

Ulrich Parthier: Und wie lautete ihr Umsetzungsvorschlag?

Stefan Langhirt: In enger Zusammenarbeit mit PROFI entwickelte media control den Social Media Analyzer: Mit diesem Produkt können aus Social Media- Kanälen Inhalts- und Meinungsanalysen von Buchtiteln des deutschsprachigen Raums erstellt und in Form von Zeitreihen, Trends, Abweichungen oder diversen Dashboards veranschaulicht werden. Wir haben media control bei der Entwicklung und Fortführung des Social Media Analyzers unterstützt. Das beinhaltet sowohl die Datenbeschaffung und -bereinigung als auch die Bereitstellung von Werkzeugen für die Datenanalyse. Die Datenbeschaffung erfolgt zum Großteil von einem Informationsprovider, aber auch mit eigenen Werkzeugen aus ausgewählten Social Media-Quellen. Mit selbst entwickelten Tools ist diese Beschaffung detailliert zu steuern, und die beschafften Daten können sehr effizient verwaltet werden.

Ulrich Parthier: Wie wurde die Transformation in Angriff genommen?

Stefan Langhirt: Eines vorab: Die Daten einzelner Personen bleiben stets anonym, es geht nie um personenbezogene Analysen. Zunächst einmal bekommt Media Control von den Providern den Social Media Content geliefert, der unstrukturiert in einer Datenbank abgelegt wird. Mit Hilfe sogenannter Sentiment Analysen werden die Daten dahingehend geprüft, ob sie positiv, negativ, beides oder ob keines von beiden erkennbar ist. Auf dieser Basis werden Ratings und Prognosen erstellt, um das Interesse und die Auflage abschätzen zu können. Der Oberbegriff hierfür lautet Predictive Analysis, also die richtige Vorhersage von Ereignissen in der Zukunft wie etwa dem Abverkauf.

„Eine Transformation ist komplex und erfolgt in mehreren Schritten. Das neue, intelligente Tool geht jetzt weit über die herkömmliche, rein quantitative Datenanalyse hinaus. Es kann die Inhalte von Leserkommentaren in den Social Media-Kanälen erkennen, einordnen und anschaulich darstellen.“

 

Ulrich Parthier:Welche Technik wird dazu verwendet?

Stefan Langhirt: Im Kern verwendet der Social Media Analyzer die leistungsfähige Analysefunktion von „IBM Watson Content Analytics with Enterprise Search“ (WCA). Wir entwickeln dazu gemeinsam intelligente, aufgabenspezifische Wissensbausteine (Annotatoren). Sie dienen dazu, wie oben angesprochen, die unstrukturierten Daten des user-generated Content aus den sozialen Medien „in Struktur“ zu bringen. So nutzt media control als Wissensbaustein zum Beispiel ein 5-stufiges „Star-Rating“, bei dem jeder Leserkommentar zu einem Buchtitel in ein Bewertungsschema übersetzt wird.

Ulrich Parthier: Mal abgesehen von der bisherigen Implementierung, hat solch ein komplexes System nicht Auswirkungen auf die gesamte IT-Infrastruktur?

Stefan Langhirt: Zum einen, so eine Transformation ist komplex und erfolgt in mehreren Schritten. An weiteren Wissensbausteinen wird natürlich gearbeitet. Darüber hinaus installierten wir beim Kunden für den Social Media Analyzer eine konvergente IT-Infrastruktur auf Basis IBM PureFlex mit IBM Storwize V5000 Storage. Dies beinhaltet Compute Power, Netzwerke, SAN, Virtualisierung und einheitliches Management und Monitoring. Die auf IBM WCA basierte Analytics-Maschine läuft in einer mit VMware virtualisierten Umgebung unter MS Windows.

Ulrich Parthier: Und wie sieht die langfristige Strategie aus?

Stefan Langhirt: Der Social Media Analyzer wurde erstmals auf der Frankfurter Buchmesse 2014 in Form der „Social Media Buch-Charts“ für den deutschsprachigen Raum gezeigt. Das neue, intelligente Tool geht jetzt weit über die herkömmliche, rein quantitative Datenanalyse hinaus. Es kann die Inhalte von Leserkommentare in den Social Media-Kanälen erkennen, einordnen und anschaulich darstellen. Für die Verlage, denen dieser Service angeboten wird, bedeutet dies mehr Planungssicherheit durch exaktere Druckauflagen und die Vermeidung von Verkaufsflops. Die zukunftsfähige Anwendung kann künftig grundsätzlich auch auf weitere Medienbereiche wie Videos, Games und Musik übertragen werden.

Ulrich Parthier: Ein anderes Beispiel für den Aufbau eines neuen Geschäftsfeldes ist Die Deutsche Börse Cloud Exchange. Was verbirgt sich hinter diesem Projekt?

Stefan Langhirt: Die Deutsche Börse Cloud Exchange (DBCE) ist ein anbieterneutraler Marktplatz für Cloud- Ressourcen. Sie wurde im Mai 2013 als jüngstes Tochterunternehmen der Gruppe Deutsche Börse gegründet. Von Beginn gehört die PROFI dem Kreis der Early Adaptor an und unterstützt die DBCE bei der technischen Konzeption dieses innovativen Geschäftsmodells. Egal ob Hersteller, Hoster, Systemintegrator oder Anwenderunternehmen – einmal registriert, kann man auf diesem Marktplatz Leistungen wie CPU Kapazität, RAM oder Storage kaufen oder verkaufen.

Ulrich Parthier: Was war die Geschäftsidee hinter diesem Projekt?

Stefan Langhirt: Die Idee war, einen Marktplatz für IaaS Ressourcen zu schaffen. Leistungen wie CPU-Time, Hauptspeicher oder Disk-Storage sind zunehmend Commodity und können auf einem solchen Marktplatz hervorragend gehandelt werden, genau in derselben Art und Weise wie die Strombörse zum Beispiel mit Energie handelt. Die hohe Standardisierung einschließlich definierter Service Levels schafft Transparenz und begünstigt die Preisfindung.

Ulrich Parthier: Was wird sich gegenüber dem heutigen Stand ändern?

Stefan Langhirt: Bis dato sind beispielsweise IaaS-Leistungen von verschiedenen Anbietern wie AWS, Google, Microsoft oder Softlayer schwer vergleichbar. Der Marktplatz der DBCE wird dazu beitragen, Angebot und Nachfrage nach solchen Ressourcen wesentlich effektiver und effizienter zusammenzubringen. Darüber hinaus übernimmt die DBCE neben der Abwicklung der Transaktionen auch das Clearing, die Delivery und die Rechnungsstellung. Für uns als Systemhaus geht es darum, unsere Kunden auf ihren Weg in die Cloud zu begleiten und eine nahtlose und sichere Integration ihrer Anwendungen, Daten und Prozesse in eine solche Umgebung, und zwar von der Beratung bis hin zum Betrieb zu ermöglichen.

Ulrich Parthier:Derzeit sind sie in der Beta-Phase. Wann ist der Start geplant?

Stefan Langhirt: Es handelt sich um ein sehr innovatives Geschäftsmodell, daher auch eine ausführliche Planungsund Testphase. Der Start ist für Anfang 2015 geplant.

Ulrich Parthier: Auch 2015 wird es wieder eine CeBIT geben, Sie sind in diesem Jahr mit dabei. Was werden ihre Schwerpunkte sein?

Stefan Langhirt: Im Kontext von Big Data und Cloud wird Security unser Hauptthema sein. Security steht sicherlich ganz oben auf der Agenda vieler Unternehmen. Wir zeigen wie diese Themen zusammengehören und wie sich unsere Kunden gegen entsprechende Risiken schützen können. Diese Risiken sind sehr breit gestreut und betreffen neben unternehmenskritischen auch personenbezogene Daten, Anwendungen und natürlich die Infrastruktur. Wir zeigen am Beispiel von QRadar von IBM wie eine SIEM (Security Information and Event Managementsystem) Lösung große Datenmengen und Systemumgebungen nach bestimmten Merkmalen analysiert. Dazu werden Log Files und Netzwerkparameter betrachtet und nach Korrelationen gesucht. Im Kontext dieser Analysen wie etwa Netzwerkanomalien oder Denial of Service Attacken entwickeln wir für die IT Infrastruktur eine Schwachstellenanalyse, anhand derer etwa ungepatchte Server oder fehlerhaft eingestellte Firewalls ausfindig gemacht und die entsprechenden Mängel behoben werden können.

Ulrich Parthier: Das bedeutet auch für Sie einen Wandel vom Infrastrukturhin zum Lösungs-Provider?

Stefan Langhirt: Das ist unser Ziel.

Ulrich Parthier: Herr Langhirt, wir danken für das Gespräch!

Dieser Artikel wurde in it management 01/02 2015 veröffentlicht.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.