Datenkompass macht Projekte beherrschbar

Data KonzeptDie Anwendungsgebiete für Data-Science-Projekte sind schier unerschöpflich und so reichhaltig wie die Branchen, wo sie Anwendung finden. Datenanalysen bringen wertvolle Einsichten für Forschung und Wissenschaft, Produktentwicklung, Vertrieb und Logistik, Produktion, Human Resources, das Management, im Bereich Banking und vielen weiteren Unternehmensbereichen und Einzelbranchen. 

Eine der wiederkehrenden Konstanten solcher Projekte ist es, Muster und Regelmäßigkeiten in Daten zu erkennen sowie Modelle zu entwickeln, die Vorhersagen erlauben und Grundlage für Entscheidungen bilden.

Anzeige

Um all diese verschiedenen Aspekte zu gliedern und zu strukturieren, haben wir von der Alexander Thamm GmbH den Datenkompass entwickelt. Er dient der Orientierung und der zielgerichteten Entwicklung von Data Science Projekten. Der Datenkompass ist unabhängig von bestimmten Technologien oder Software-Anbietern und kann individuell an die bestehenden IT-Lösungen unserer Kunden angepasst werden. Der Datenkompass teilt dazu jedes Data Science Projekt in vier aufeinander aufbauende Stufen ein: Business Processes, Data Intelligence, Predictive Analytics und Insights Visualization. Der Datenkompass stellt die Summe unserer langjährigen Erfahrung und über 300 erfolgreich durchgeführte Data Science Projekte in verschiedenen Branchen dar.

1. Business Processes

Alles beginnt damit, dass unsere Kunden mit einer mehr oder weniger spezifischen Frage oder einem Problem auf uns zukommen, für das Sie eine Lösung suchen. Gemeinsam kümmern wir uns darum, diese Frage umfassend zu verstehen. Dazu klären und bewerten wir alle mit der Frage verknüpften Hintergründe, Motivationen und Interessen. Je genauer wir eine Fragestellung präzisieren, desto besser lässt sie sich mit Hilfe von passenden Daten beantworten. Für den Erfolg halten wir es für entscheidend, von Anfang an alle beteiligten Personen mit am Tisch zu haben. Je früher alle betroffenen Abteilungen und Entscheidungsträger mit in den Prozess einbezogen werden, desto leichter und effektiver gestaltet sich die Umsetzung.

Sobald die konkrete Fragestellung vorliegt, geht es an die Planung und Klärung der Rahmenbedingungen eines Projekts. Dazu gehen wir anhand der Analyse der Business Processes der Frage nach, welche technischen und analytischen Herausforderungen es auf dem Weg zu Lösung zu meistern gilt. Das Verständnis des Zusammenspiels von Geschäftsprozessen und Analysekonzept bilden das Fundament eines jeden Data Science Projekts.

2. Data Intelligence

Die betriebswirtschaftliche oder fachlich orientierte Fragestellung übersetzen wir in der anschließenden Phase in eine datengeriebene Fragestellung. Hier geht es um die genaue Bestimmung, welche Zahlen, Messwerte und Daten für ein Data Science Projekt relevant sind. Dabei kann es sein, dass die Daten bereits vorhanden sind oder zunächst Konzepte für die Datenerhebung entwickelt werden müssen.

Die eigentliche Herausforderung ist es, sehr unterschiedliche Daten miteinander vergleichbar zu machen. Umgangssprachlich könnte man sagen, dass Daten „eine einheitliche Sprache sprechen müssen“. Dieser Aspekt eines Data Science Projekts kann zeitlich enorm intensiv sein und nicht selten handelt es sich dabei um manuelle Prozesse. Darum ist Data Intelligence einer der entscheidenden Vorgänge, ohne die keine verlässlichen Aussagen möglich sind. Data Science benötigt „gute“, sprich: relevante, strukturierte und valide Daten.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

3. Predictive Analytics

Unternehmen sehen sich heute in vielen Fällen mit enormen Datenmengen konfrontiert. Um diese Big Data auszuwerten, werden spezielle Algorithmen verwendet oder selbst entwickelt, die in der Lage sind, in großen Datenmengen Muster und Regelmäßigkeiten zu erkennen. Die Analyse von historischen Daten kann beispielsweise dazu dienen, Vorhersagemodelle zu entwickeln. Dabei werden Wahrscheinlichkeiten berechnet, nach denen ein bestimmtes Ereignis oder ein Szenario eintritt. So lassen sich frühzeitig Trends erkennen und darauf reagieren. Berühmt wurde die Wahlkampfkampagne von Barack Obama, dessen Wahlkampfteam gigantische Mengen von Tweets aus den Social Media analysierte und ihren Wahlkampf entsprechend anpasste. Mit Hilfe von Predictive Analytics können wir entweder konkrete Fragestellungen und Hypothesen bewerten oder wir suchen nach der nächsten (sinnvollen) Frage, auf die versteckte Muster und Regelmäßigkeiten in den Daten hinweisen.

4. Insights Visualization

Für das menschliche Gehirn sind Daten in Form von Bildern viel schneller und besser zu verarbeiten als endlose Zahlenreihen in Tabellenform. Die Insights Visualization, die Visualisierung von Daten, ist deshalb nicht nur für Präsentationen wichtig, sondern vor allem um die Informationen zu verstehen und interpretieren zu können. Die Visualisierung wird damit zum wesentlichen Bestandteil einer jeden Analyse. Insbesondere weil sich Data Science nicht ausschließlich an IT-Experten richtet, sondern ebenfalls im Management und der Geschäftsführung ihr Anwendungsfeld findet, müssen die Ergebnisse klar und verständlich präsentiert werden. Usability und Information Design sind der Schlüssel, damit Data Science ein Bestandteil der alltäglichen unternehmerischen Praxis werden kann.
Projekte beherrschen

Jedes Data Science Projekt ist einzigartig. Der Weg zur individuellen Lösung weist jedoch strukturelle Ähnlichkeiten und wiederkehrende Fragestellungen auf. Der Datenkompass ist die Antwort auf diese Gemeinsamkeiten und er hilft dabei, Prozesse zu beschleunigen, zu beurteilen und zu optimieren. Wie ein echter Kompass beim Navigieren hilft und es möglich macht, sich über den eigenen Standpunkt klarzuwerden, so verschafft auch der Datenkompass Orientierung. Data Science Projekte sind hochkomplex und umso wichtiger ist es, den Überblick nicht zu verlieren. Mit dem von uns entwickelten Datenkompass verlieren wir nie das Ziel aus den Augen – Denn wir wissen: Nur wer die richtige Orientierung hat, kann auch neue Wege beschreiten.

Use Case: Frühwarnsystem für Qualitätsprobleme

Quality Analytics heisst das Zauberwort. Es stellt die feldbasierte Qualitätssicherung mit seinen althergebrachte Denkmustern in der Automobilbranche auf den Kopf.

Bislang war es so: Wenn in einem Auto ein Fehler auftrat, musste der Wagen zur Reparatur oder Wartung in die Werkstatt. Dort wurde zunächst eine Fehleranalyse vorgenommen, wenn nötig Ersatzteile bestellt und anschließend die Behebung des Defekts vorgenommen. Wurde ein generelles Problem erkannt, konnte im Anschluss der Produktionsprozess umgestellt oder angepasst werden. Ein Vorgang, der im schlimmsten Fall bis zu mehreren Wochen und gar Monaten dauern konnte. Diese Logik wird durch die neuen Möglichkeiten, die sich durch Field Quality Analytics – der frühzeitigen Problemerkennung – bieten, vollständig auf den Kopf gestellt. Noch bevor ein Fehler auftritt, kann während des laufenden Betriebs die Wahrscheinlichkeit eines Defekts vorhergesagt werden. Dadurch verkürzen sich nicht nur die Wartungszeiten, sie können zu einem Teil sogar ganz vermieden werden. Zudem lässt sich die Produktion entsprechend umstellen und der Fehler in Zukunft ganz vermeiden. Durch die Methoden der Quality Analytics werden Qualitätsprobleme von Fahrzeugen zwischen drei und sechs Monaten früher als mit den bisherigen Methoden des Qualitätsmanagements erkannt.

Der Einsatz von Quality Analytics ermöglicht durch die permanente Erhebung und Auswertung von Big Data die frühzeitige Erkennung von Qualitätsproblemen von bereits ausgelieferten Fahrzeugen. Somit können schon im Vorfeld Gegenmaßnahmen eingeleitet werden. Das spart Gewährleistungs- und Wartungskosten in zweistelliger Millionenhöhe.

Die Umsetzung

Das erklärte Ziel des Kunden, einem führenden deutschen Automobilhersteller, war es, die Qualitätsführerschaft im Premiumsegment zu erlangen und seinen Kunden dauerhaft zu garantieren. Zahlreiche Initiativen hatten bereits die zentrale Kennzahl der „Fehler pro 100 Fahrzeuge“ erfolgreich verkleinern können: In diesem Rahmen wurden Prozesse zur Fehlerbeseitigung verbessert, Durchlaufzeiten von Maßnahmen zur Qualitätssteigerung beschleunigt und Wirksamkeitsmessungen zur Bewertung neuer Produktionsverfahren implementiert. Auch die Bauteile von Zulieferern wurden stärker hinsichtlich ihrer Qualität unter die Lupe genommen. Einige Stimmen im Unternehmen wurden laut, dass das Verbesserungspotenzial herkömmlicher Methoden des Qualitätsmangements wie Six Sigma, die auf Prozessoptimierung fokussiert sind, an ihre Grenzen gekommen sind. Die Schwierigkeit für eine weitere Verbesserung besteht darin, dass bestimmte Defekte erst dann auftauchten, nachdem die Fahrzeuge längst an die Kunden ausgeliefert sind.

Hohe Kosten

An diesem Punkt stellt sich die entscheidende Frage: Wie kann durch den Einsatz von Datenanalysen eine weitere Verbesserung des Qualitätsniveaus erzielt werden und zwar über die reine Produktion hinaus?

Der Datenkompass: Ganzheitliches Vorgehen für Data Science Projekte

Für die Durchführung von Data-Science-Projekten haben wir den einzigartigen Datenkompass entwickelt. Unser Datenkompass umfasst fünf wesentliche Elemente, die unserer Erfahrung und Überzeugung nach ein erfolgreiches Datenanalyse-Projekt kennzeichnet. Die fünf Bestandteile des Datenkompass sind: Zunächst die Analyse der Problemfelder im Unternehmen (Business Processes). Anschließend werden die relevanten Daten identifiziert (Data Intelligence) und dann ein Vorhersagemodell entwickelt (Predictive Analytics). Die Erkenntnisse werden darauf in einer Applikation visualisiert (Insights Visualization).

Kompass

Analyse und Definition der Fragestellung

In einem ersten Schritt eines Analyse Projekts werden alle beteiligten Geschäftsprozesse identifiziert, um eine konkrete Fragestellung zu beantworten. Da Probleme und Fehler im Falle von bereits verkauften Fahrzeugen unter Umständen erst viele Monate nach Auslieferung erkannt werden, kann eine Lösung nicht ausschließlich innerhalb der Produktionsprozesse ansetzen. Die Fahrzeuge selbst, der Vertrieb und sogar das Netzwerk der Partnerwerkstätten können in die Lösung mit einbezogen werden. So lässt sich ein Service auf höchstem Qualitätsniveau realisieren. Bahnt sich zum Beispiel der Defekt eines Bauteils an, lässt sich dieses bereits im Vorfeld herstellen oder bestellen und direkt an die Werkstätten verschicken, so dass es dort direkt beim ersten Termin mit dem Kunden ausgetauscht werden kann.

Identifikation der Datenquellen und Validierung der Daten

Im zweiten Schritt werden die verschiedenen Datenquellen, die zur Lösung der Herausforderung notwendig sind, identifiziert. Anschließend werden alle Daten auf Plausibilität geprüft – ein kleiner Fehler in einer Datenbank wie doppelte Datensätze oder eine falsche Variable kann große Auswirkungen auf das Endergebnis haben. Dieser Schritt ist essenziell, um am Ende der Analyse aussagekräftige Ergebnisse zu bekommen, die mit der Wirklichkeit übereinstimmen. Alle Datenbanken werden zu einem ganzheitlichen Datenmodell verknüpft – alle beteiligten Fachbereiche und die Data Engineers arbeiten dazu Hand in Hand.

So werden Gewährleistungsdaten, Reparaturrechnungen, Teileabverkaufs- sowie Teilelogistikdaten, Produktionsdaten, Diagnosedaten aus dem laufenden Betrieb oder Werkstattbesuchen sowie Telematikinformationen, also allgemeine Echtzeit-Daten über den Individualverkehr wie GPS-Informationen, die auch zur Optimierung der Navigationssysteme genutzt werden, miteinander verknüpft. Die Daten aus vielen Teilbereichen werden zusammengeführt und bilden einen sogenannten Datensee („Data Lake“). Im Vergleich zu einer einfachen Datenbank, die nur Daten eines bestimmten Typs enthält, ist ein Datensee im übertragenen Sinne ein „Biotop“, das viele unterschiedliche Arten von Daten in unterschiedlichster Größenordnung beheimatet. Damit gewährleistet ein Datensee einen möglichst genauen und vollständigen Überblick über alle erhobenen Daten. Darin sind auch die anonymisierten Daten der einzelnen Fahrzeughistorien enthalten, die ähnlich einer Patientenakte Informationen zum aktuellen „Wohlergehen“ der Fahrzeuge enthält. Diese enthüllen ihren Sinn jedoch erst in der Zusammenschau mit allen anderen Daten in einem Datensee, weil sich erst dadurch zusammenhängende Muster erkennen lassen.

Erstellung des Prognosemodells

Im dritten Schritt und zugleich im Herzen des Analytics Projekts geht es um die Entwicklung von Algorithmen, die bereits bei geringen Fallzahlen Alarm schlagen. Dies wird ermöglicht, indem die verschiedensten Datenquellen miteinander vernetzt wurden. Das entstehende Datenvolumen ist dabei enorm, so dass diese Big Data nicht mehr mit den hergebrachten EDV-Methoden ausgewertet werden können. Darum werden diese Daten in einem großen Rechnerverbund durch Predictive-Analytics-Algorithmen ausgewertet. So lassen sich sowohl Muster erkennen, die auf einen Fehler hindeuten, und gleichzeitig die Ursache des Problems identifizieren.

Eine Vielzahl an Sensoren erlaubt heute, eine Analyse aller wesentlichen Bestandteile der Fahrzeuge durchzuführen. Daten über Druck, Temperatur oder Vibrationen liefern Erkenntnisse über den aktuellen Betrieb, die auf Anomalien oder Abweichungen von einer Norm hinweisen. Um diese Norm zu definieren, benötigt man neben diesen aktuellen Daten sogenannte „historische“ Daten. Historische Daten werden genutzt, um statistische Vorhersagemodelle zu trainieren. Ein auf diese Weise entwickeltes Modell weist einen hohen Automatisierungsgrad auf und lässt sich auf unterschiedlichste Ausfallursachen anwenden. Außerdem lassen sich mehrere Milliarden Datensätze zum automatisierten Lernen des Modells nutzen – selbst für erfahrene Ingenieure wäre dies eine unlösbare Aufgabe.

Das Ziel der Predictive Analytics ist es, ein „Wissen von der Zukunft“ zu erhalten. Die Datenanalysen liefern eine Grundlage für die Vorhersage, ob und wann und mit welcher Wahrscheinlichkeit ein bestimmter Bestandteil eines Autos ausfallen wird. Dieses Wissen wiederum kann sowohl zurück in die Produktion als auch in den Einkauf, den Vertrieb oder den Kundenservice fließen.

Übersicht und Wirksamkeit der Daten durch Visualisierung

Die besten Datenanalysen bleiben unverstanden und wirkungslos, wenn sie nicht in einem vierten Schritt entsprechend visualisiert werden. Die Visualisierung der Ergebnisse in einer interaktiven und assoziativen Analyse-App (hier QlikView) ermöglicht eine schnelle und übersichtliche Navigation durch große Datenmengen. Je nach Komponente und Bauteil werden in Echtzeit die „Top-Aufsteiger“ berechnet, so dass fehleranfällige Fahrzeuge schnell und zuverlässig erkannt werden. Die Kategorisierung von möglichen Qualitätsproblemen ist ein entscheidender Vorgang, da dadurch die Prioritäten richtig gesetzt werden können. Top-Aufsteiger haben die höchste Priorität, weil nur durch das frühzeitige Gegensteuern auch die größtmögliche Kostenersparnis realisierbar ist. Nach der Selektion der relevanten Fahrzeuge kann mit der weiteren Qualifizierung des Fehlers begonnen werden. Hierzu nutzt man die verknüpfte Analyse-App, die die zentrale Anlaufstelle ist und alle wichtigen Informationen bündelt. Die App enthält Detailinformationen, hauptsächlich aus der Fahrzeugdiagnose, und bietet eine übersichtliche Darstellung aller im Feld erhobenen Daten. Somit können bisher unbekannte Fehlermuster und Anomalien aufgedeckt werden, die dann vom verantwortlichen Experten interpretiert werden. Die Visualisierung von Daten erfolgt also nicht zum Selbstzweck oder reinen Präsentationszwecken – sie ist ein integraler Bestandteil der Interpretation der Daten und der erfolgreichen Umsetzung von Lösungsstrategien.

Darum tauschen sich im Anschluss Fehlerbeseitigungsteams und Task-Force-Gremien auf dieser Grundlage zur besten Lösungsstrategie aus. Entsprechende Maßnahmen werden aufgesetzt, um beispielsweise schnellstmöglich die Produktion weiterer fehlerhafter Bauteile zu verhindern. Darüber hinaus werden aus der Vielzahl von Ausfällen Standardlösungen („Lessons Learned“) abgeleitet – oft sind es zentrale Maßnahmen wie die Verbesserung der technischen Exaktheit und Fertigungsgenauigkeit, die eine Vielzahl von einzelnen Problemen beheben können. Kleine Unsauberkeiten in der Produktion wie die Abweichung eines Bauteils, können im Dauereinsatz oder bei extremen Temperaturschwankungen große Auswirkungen nach sich ziehen.

Die Vorteile von Frühwarnsystemen für Qualitätsprobleme im Überblick

  • Mögliche fehleranfällige Komponenten in bereits verkauften Fahrzeugen können 3-6 Monate früher identifiziert werden.
  • Gegenmaßnahmen können frühzeitig eingeleitet werden und dadurch besser geplant und zeiteffizient durchgeführt werden.
  • Gewährleistungs- und Wartungskosten im zweistelligen Millionenbereich können so eingespart werden.
  • Daten können in einem Umfang (Big Data) ausgewertet werden, wie es mit einem traditionellen Datenverarbeitungsansatz unmöglich wäre.
  • Die Kundenzufriedenheit erhöht sich, da die Zuverlässigkeit der Fahrzeuge steigt. Außerdem wird der interne Arbeitsaufwand für die Erstellung von Analysen und Auswertungen erheblich reduziert.
  • Da die Erkenntnisse wieder in die Entwicklung und Produktion zurückwirken, wird die Qualität der Fahrzeuge beziehungsweise der Produkte insgesamt gesteigert.
  • Ein einmal erarbeiteter und etablierter Lösungsansatz lässt sich auf viele weitere Anwendungsfälle übertragen.

Michaela Tiedemann

 

Autorin: Michaela Tiedemann, CMO bei www.alexanderthamm.com

 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.