Anzeige

Machine Learning

Im Kontext der Digitalisierung fällt immer wieder der Begriff Machine Learning. Aber wie soll das gehen, dass Maschinen lernen?

Mit Machine Learning bezeichnet man den Prozess, bei dem IT-Systeme in die Lage versetzt werden, auf Basis vorhandener Datenbestände und Algorithmen, Gesetzmäßigkeiten zu erkennen und Lösungen zu entwickeln. Je mehr Wiederholungen es gibt und je mehr Daten genutzt werden, umso besser werden die von der Maschine vorgeschlagenen Lösungen. Die Maschine lernt!  

Je besser die Informationsbasis, desto valider der Wissensaufbau. Dieses Prinzip gilt auch für Machine Learning: Je hochwertiger die Datengrundlage, umso zuverlässiger funktioniert das Lernen. Da die Datenqualität die wichtigste Komponente des Prozesses ist, empfiehlt es sich, im Vorfeld eines Machine Learning Projekts festzulegen, welche Resultate bzw. Ergebnisse man erwartet. Von dieser Erwartung hängt ab, welche Daten und in welcher Form sie benötigt werden, um den adäquaten Machine Learning Prozess aufzusetzen. 

Wie ein solcher Ablauf aussehen kann, lässt sich gut an der Funktionsweise eines Kühltransporters visualisieren. Bei einem Kühlwagen beispielsweise erkennt das System anhand der Sensorwerte, die Temperatur im Inneren des Transporters. Auch kleinste Temperaturschwankungen lassen sich so feststellen. Die Herausforderung im Fall des Kühltransporters ist jedoch die Konvertierung der Sensordaten zu Daten, die der Rechner verarbeiten und auswerten kann. Wichtig ist dabei vor allem die Datenqualität. Die Quantität ist eher sekundär.  

Ganz anders verhält es sich dagegen bei einer Plastikgussmaschine, etwa einer solchen, die aus flüssigem Kunststoff Spielzeugautos herstellt. Hier wird der Prozess nicht mit Sensoren, sondern mittels Ultraschall überprüft. Bei diesem Vorgang kommen bereits in kürzester Zeit große Datenmengen zusammen. Die vom Ultraschallgerät erfassten Daten müssen dann so aufbereitet werden, dass sie automatisch verarbeitet werden können. Nur dann kann der Algorithmus erkennen, in welchem Fertigungszustand sich das Spielfahrzeug befindet. Wichtig ist, dass dabei regelbasiert vorgegangen wird. Nur so lassen sich Korrelationen oder Anomalien aufdecken. In diesem Fall hat vor allem die Datenquantität Auswirkungen auf das Ergebnis: Die vielen Einzelwerte des Ultraschallgeräts sorgen dafür, dass der Algorithmus des Rechners bereits kleinste Abweichungen identifiziert. 

Big Data war gestern - Smarte Daten sind heute

Beim Machine Learning, geht es darum, heterogene Datenformate und -bestände zu konsolidieren. Mittels Algorithmen werden sie aus der Datenmenge extrahiert, damit sie zu smarten Informationen werden, aus denen sich Schlussfolgerungen ziehen lassen. Die Datenkonsolidierung hat neben der Auswertbarkeit einen weiteren Vorteil: Da man von einer großen Datenmenge ausgeht, fällt eine kleine Anzahl an Fehlern nicht so heftig ins Gewicht. Anders ist das hingegen bei einer geringen Datenmenge. Hier haben Fehler gravierende Folgen. Dennoch spielt für den Konsolidierungsprozess die Datenkonsistenz eine zentrale Rolle. Nur wenn die Datenbasis eine gute Qualität aufweist, können die Algorithmen gute Ergebnisse erzielen.

Wie aber lässt sich Datenkonsistenz erzeugen?  

  1. Datenerfassung 

Um die Daten zu erfassen, gibt es unterschiedliche Szenarien. In einigen Fällen kann man mit bereits vorhandenen Signalen arbeiten oder aber es müssen Maschinen mit entsprechenden Sensoren ausgestattet werden. Vielfach ist es sogar möglich, Daten aus der Maschinensteuerung zu gewinnen und über Schnittstellen direkt in ein IoT-Gateway zu schreiben. 

  1. Dateninterpretation

Nach der Datengewinnung geht es darum zu verstehen, welche verschiedenen Werte, Angaben oder Daten für was stehen. Nur wenn man weiß, dass ein Sensorwert für eine bestimmte Temperatur steht, lässt sich der einzelne Wert einordnen. Was beim genannten Temperaturbeispiel einfach zu sein scheint, ist bei anderen Aufgabenstellungen durchaus komplexer. Die Dateninterpretation ist aber sehr wichtig, denn sie ist die Grundlage für die Algorithmen, die dann wiederum Basis für das Machine Learning sind.  

  1. Datenaufbereitung 

Schließlich müssen die Daten aufbereitet und aggregiert werden, damit die verschiedenen Werte einer oder mehrerer Maschinen konsistent und einheitlich sind. Für diesen Konsolidierungsprozess gibt es bereits Lösungen und Plattformen die Datenformate entsprechend für das Zielsystem umwandeln und auf Basis von Regeln interpretieren.  

  1. Datentransport und -analyse

Schlussendlich bereitet ein IoT-Hub die Daten so auf, dass verschiedene Auswertungen möglich sind. Der IoT-Hub dient zudem als „Transporteur“, der die Daten z.B. in ein vorhandenes ERP- oder MES-System zu überspielt.  

  1. Datensouveränität

Schlussendlich müssen die Unternehmen dafür sorgen, dass sie Herr ihrer eigenen Daten bleiben. Dabei geht es nicht nur um Fragen der Datensicherheit, sondern um den Speicherort, damit die Daten deutscher Nutzer nicht auf Servern in den USA landen. Gemäß europäischer Datenschutzgrundverordnung sollten die Daten in Deutschland bzw. Europa gespeichert werden. 

Machine Learning – und was dann?

Doch das Speichern von Daten im Ursprungsland ist nur ein Trend. Immer populärer werden Algorithmen, die neben dem Machine Learning weitere KI-Formen hervorbringen. Auch wenn die IT-Systeme heute schon mit jedem Sonderfall „lernen“ sich selbst zu perfektionieren - die Datenqualität und -konsistenz ist sind das A und O der Digitalisierung. Schon allein deshalb sollten Fokus eines jeden Unternehmens stehen.  

 

Lumir Boureanu, CEO
Lumir Boureanu
CEO, compacer GmbH

Artikel zu diesem Thema

Team Zahnrad
Mär 16, 2021

IT-Sicherheit, Datensicherheit und Datenschutz gehen Hand in Hand

Die Digitalisierung schreitet in schnellen Schritten voran und die Themen IT-Sicherheit,…
Datenqualität
Mär 15, 2021

Eine erfolgreiche Digitalisierungsstrategie setzt hohe Datenqualität voraus

Keine Frage: Die Corona-Pandemie hat Digitalisierungsprojekte auf der Agenda vieler…
eBook Big Data und Analytics
Feb 02, 2021

Big Data und Analytics - KI und ML auf dem Vormarsch

Die Datenmenge schwillt rasant an und Prognosen werden immer schwieriger. Hinzu kommen…

Weitere Artikel

AI

KI-Managementsysteme fördern vertrauenswürdige Künstliche Intelligenz

Datenschutz-, Risiko- oder Compliance-Management: Neue KI-Technologien stellen Unternehmen und Entwickler*innen vor neue Herausforderungen.
Digitalisierung

So geht es mit der Verwaltungsdigitalisierung endlich voran

Die Digitalisierung der öffentlichen Hand ist in Deutschland bislang ein Trauerspiel. Pegasystems erläutert in acht Thesen, was getan werden muss, um die Digitale Transformation der Verwaltung endlich entscheidend voranzubringen.
Umwelt

Die Deutschen wünschen sich mehr digitalen Umweltschutz

Surfen, streamen, E-Mails schreiben: Mehr als 60 Millionen Menschen in Deutschland nutzen das Internet – und produzieren damit indirekt erhebliche Mengen CO2. Viele achten jedoch auch darauf, die damit verbundenen Klimawirkungen zu begrenzen oder positive…
Supply Chain Management

Supply Chain Management: Krisensicher dank beschleunigter Digitalisierung?

Die Absicherung von effizienten Lieferketten durch Digitalisierungsinitiativen gehört nicht zuletzt wegen der Pandemie zu den wesentlichen Herausforderungen des Supply Chain Managements (SCM).
Mobilfunk

10 Trends der Mobilfunkbranche

Unter dem Titel „Roads to Mobile 2030: 10 Wireless Industry Trends” befasste sich David Wang, Executive Director of the Board von Huawei und Vorsitzender des ICT Infrastructure Managing Board, auf dem Global Mobile Broadband Forum (MBBF) mit der Zukunft…

Anzeige

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button "Zum Newsletter anmelden" stimme ich der Datenschutzerklärung zu.