Wie Unternehmen von Daten profitieren können

Daten gelten schon seit längerem als das neue Gold. Doch Unmengen an Informationen lediglich zu erheben und zu speichern, genügt noch lange nicht.

Um von ihrem Datenbestand gewinnbringend zu profitieren, müssen Unternehmen ihre Bestandsinformationen konsolidieren und auswerten, um aus den gewonnenen Erkenntnissen die richtigen Entscheidungen ableiten und systematisieren zu können. In diesem Kontext spricht man von Advanced Analytics und künstlicher Intelligenz.

Anzeige

Business Intelligence (BI) gilt als Grundlage beziehungsweise Vorläufer von Advanced Analytics. Bei BI handelt es sich um eine Methode, mit der sich Prozesse systematisch analysieren lassen. Mithilfe von BI-Lösungen können Anwender Daten aus unterschiedlichen Quellen sammeln, an zentraler Stelle konsolidieren, zuverlässig auswerten und anschaulich visualisieren. Damit schaffen sie eine solide Grundlage, auf der sie strategische und operative Entscheidungen besser treffen können. Viele Unternehmen nutzen Self-Service-BI, um eigene Reports zu erstellen und individuelle Analysen durchzuführen. Der Vorteil: Hierfür braucht es keine tiefergehenden technologischen Kenntnisse. Der wesentliche Unterschied zu Advanced Analytics besteht darin, dass BI-Tools ausschließlich Auswertungen bereitstellen, die sich auf die aktuelle Ist-Situation oder die Vergangenheit beziehen. Mit Advanced-Analytics-Tools hingegen lassen sich Analysemodelle oder Simulationen aufbauen. Auf Basis der vorliegenden Daten des Ist-Zustands können Unternehmen dann im nächsten Schritt datenbasierte Prognosen aufstellen. Unter Zuhilfenahme von Methoden aus den Bereichen Data Science und Predictive Analytics sind sie letztlich in der Lage, die so wichtige Frage zu beantworten: Wie werden sich bestimmte Unternehmenskennzahlen, wie beispielsweise die Bedarfslage, in nächster Zeit wahrscheinlich entwickeln? Auf dieser Basis lässt sich dann eine optimierte Planung aufstellen.

Prozesse effizienter gestalten

Um datenbasierte Entscheidungen treffen zu können, braucht es zunächst einen entsprechend großen Bestand an relevanten Informationen – den viele Unternehmen entweder (noch) nicht haben oder nicht gewinnbringend nutzen können. Vielerorts stehen nicht alle benötigten Daten in digitalisierter Form zur Verfügung. Darum müssen Unternehmen die erforderlichen Daten digital verfügbar machen und eine zentrale Zugriffsmöglichkeit bereitstellen, etwa anhand einer modernen Dateninfrastruktur und cloud-basierten Services. Durch den Einsatz mächtiger moderner Technologien aus den Bereichen Künstliche Intelligenz (KI) und Machine Learning (ML) ist es dann möglich, komplexe Abhängigkeiten und Muster in einem bereitgestellten Datenbestand zu identifizieren. Solche Technologien sind auf der Basis von Big Data in der Lage, anhand von großen Datenmengen sogar sehr granulare Einblicke in Prozesse zu eröffnen. Sind die Muster erst einmal identifiziert, lassen sich Prozesse in Folgeschritten durch KI-Systeme auch automatisiert oder (teil-)autonom abbilden. Im Medienbereich verwenden Redakteure beispielsweise KI, um ihre Recherchetätigkeit effizienter zu gestalten. Wesentlich hierfür ist Natural Language Processing (NLP). Dabei handelt es sich um eine Technologie, mit der sich natürliche Sprache maschinell verarbeiten lässt. Durch den Rückgriff auf NLP kann ein KI-basiertes System relevante Informationen aus Texten ziehen und inhaltliche Zusammenhänge erkennen. Anhand der gewonnenen Informationen können Journalisten dann tiefergehend recherchieren.

Must have: interdisziplinäre Projektteams

Neben einem konsolidierten Datenbestand gibt es für die erfolgreiche Nutzung von Datenpotenzialen eine weitere unabdingbare Voraussetzung: interdisziplinäre Projektteams mit technisch versierten Experten und fachlich kompetenten Mitarbeitern. Experten aus der jeweiligen Fachabteilung geben die inhaltliche und funktionale Ausrichtung der zu entwickelnden Lösung vor. Auf technischer Seite fungiert ein Data Scientist oder Machine Learning Engineer als Brücke zwischen der technischen Kompetenz und der fachlichen Ausrichtung. Er muss die Aufgabenstellung verstehen und diese in automatisierte Verfahren überführen. Wichtig ist auch ein Data Engineer beziehungsweise Data Architect, der die benötigten Daten konsolidiert und performante Zugriffsmöglichkeiten bereitstellt.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Machine Learning Engineers werden immer wichtiger

Im abteilungsübergreifenden Zusammenspiel vieler unterschiedlicher Rollen und Kompetenzen nehmen Machine Learning Engineers und Data Scientists eine zentrale Funktion ein. Neben professionellen Experten wird es immer mehr sogenannte Citizen Data Scientists geben, also Nutzer mit einem mathematisch-statistischen Grundverständnis und einem großen Interesse an Analytics. Mithilfe der richtigen Tools sind sie in der Lage, analytische Aufgaben für die operative Prozessbegleitung selbst zu übernehmen. Dass solche Rollenprofile überhaupt entstehen, ist darauf zurückzuführen, dass der Zugang zu Data Science und KI zunehmend einfacher wird. Außerdem sind intelligente Datenverarbeitungsprozesse schon jetzt Bestandteil vieler Branchenlösungen.

Neue Technologien gewinnbringend nutzen

Technologien wie Künstliche Intelligenz und Machine Learning können also zu Lösungen führen, die Unternehmen als wertvolle Unterstützung dienen. Ein Beispiel sind Predictive-Maintenance-Anwendungen, die immer öfter im Kontext der Wartung industrieller Maschinen und technischer Geräte zum Einsatz kommen. Dank KI überwachen solche Anwendungen hunderte Sensoren in kurzzyklischen Zeitabständen, mitunter im Bereich weniger Millisekunden. Aus der Vielzahl von Informationen kann eine KI ungewöhnliche Verhaltensweisen, sogenannte Anomalien, und Verschleißerscheinungen frühzeitig erkennen. Dafür arbeitet das System mit vortrainierten und selbst-adaptiven Modellen, die trotz einer hohen Komplexität und Datenlast besonders schnelle Entscheidungen treffen können. Darauf aufbauend, lassen sich Wartungsfenster frühzeitig planen, Standzeiten reduzieren und gleichzeitig die Einsatzdauer sowie Austauschzyklen technischer Komponenten optimieren.

Aufbau eigener Kompetenzen ist sehr aufwendig

Vor diesem Hintergrund fragen sich viele Unternehmen: Lohnt es sich, eigene Datenexperten einzustellen? Auf diese Frage gibt es keine pauschale Antwort. Im Umfeld von Data Science und KI entstehen zunehmend unterschiedliche Rollenprofile, die sich auf einzelne Aspekte einer Lösung beziehen. Diese Kompetenzen selbst aufzubauen und stetig zu erweitern, ist mit hohen Anstrengungen verbunden. Ob sich der Aufwand tatsächlich lohnt, ist von der Struktur und Aufstellung des Unternehmens abhängig. Als Alternative zu einem umfangreichen Kompetenzaufbau empfiehlt sich der Rückgriff auf spezialisierte Dienstleister. Ein guter Dienstleister sollte in der Lage sein, auf die individuellen Anforderungen des jeweiligen Unternehmens einzugehen, indem er zunächst die Ist-Situation analysiert. Sollte es bereits erste Ansätze geben, überführt er diese in die praktische Anwendung. Hierzu gehört auch, die Datenquellen zwischen den Fachbereichen zu vernetzen und das fachliche Know-how für Machine Learning und künstliche Intelligenz einzubringen. Für Unternehmen, die von null an beginnen, stellt ein Dienstleister KI-basierte Microservices für die speziellen Anforderungen einzelner Fachbereiche bereit. Ganz gleich, welche Aufgabe der Dienstleister übernimmt – es ist wichtig, dass er sich an der vorhandenen Datenstruktur und den Prozessen des Unternehmens orientiert. Und da sich KI-Lösungen permanent weiterentwickeln, ist es prinzipiell ratsam, auf eine längerfristige Zusammenarbeit zu setzen.

Niels

Pothmann

Arvato Systems -

Head of AI

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.