Anzeige

Mitarbeiter vor Logistik Board

Das Board liefert den Mitarbeitern eines Logistik-Zentrums wertvolle Informationen. (Quelle Peakboard)

Nur wer seine Prozessdaten sichtbar macht, nutzt sie auch effektiv. Somit ist die intelligente Datenvisualisierung in Echtzeit der Schlüssel zu Effektivität und Prozesssicherheit für digitale Produktionsprozesse.

Im Zeitalter digitalisierter Fertigung liefern verschiedenste Maschinen, Sensoren und sonstige Datenquellen eine Vielzahl von Prozessinformationen. Damit besteht, zumindest theoretisch, eine sehr umfangreiche und mit fortschreitender Digitalisierung und Vernetzung der Anlagen weiter wachsende Informationsbasis für Prozessoptimierung. Das Problem dabei liegt in drei entscheidenden Punkten:

In der Regel und nach aktuellem Stand der Technik wird ein Bereitstellungszyklus von Rohdaten der verschiedenen Teilsysteme nur einmal pro Tag durchlaufen. Im einfachsten Fall mit Visualisierungstools wie Excel oder Software von Herstellern wie Tableau, QlikView oder ähnlichen Anwendungen.

Die Frage danach, an welcher Stelle ein Fehler entstanden ist, ist damit oft erst am Ende eines Tages beziehungsweise eines Auswertungszyklus zu beantworten – und zwar nur rückblickend, häufig nur unkonkret und nur von wenigen Einzelpersonen. Flexible Regulierung fein verzahnter Arbeitsschritte kann mit solchen retrospektiven Informationen niemand leisten, der seinen Prozess direkt steuern und optimieren will. Gerade eine solche flexible Prozessoptimierung ist angesichts zunehmend individualisierter Fertigungsaufträge und Just-in-time Produktion immer notwendiger, um Effektivität und Prozesssicherheit zu gewährleisten.

Prozesssicherheit und Effektivität

Dies ist erst dann möglich, wenn alle Mitarbeiter eines Betriebes permanenten Einblick in laufende Prozesse haben. Manager und Planer müssen also Informationssysteme entwickeln, die jedem Beteiligten die jeweils für ihn relevanten Informationen sammeln, sinnvoll miteinander verbinden und verständlich sichtbar machen. Und zwar in Echtzeit. Solche Informationen erhöhen die Wahrscheinlichkeit der Zielerfüllung signifikant, denn Mitarbeiter können nur dann, wenn sie Probleme im Ablauf frühzeitig erkennen, adäquat auf sie reagieren. Zum Beispiel mithilfe eines Fehlteilmonitors, der nicht nur anzeigt, welche Materialien vorhanden sind und welche fehlen, sondern der gleichzeitig angibt, welche nächsten Arbeitsschritte möglich und sinnvoll sind. So ist es Mitarbeitern möglich frühzeitig neue Prioritäten setzen, bevor sie mit Arbeitsschritten beginnen, die schlimmstenfalls gar nicht abgeschlossen werden können und eine Störung des Gesamtablaufs zur Folge hätten.

Solche Informationen dienen als wichtige Grundlage für akute Fehlervermeidung während des Fertigungsprozesses selbst und befähigen handwerklich tätige Mitarbeiter zu mehr Eigenverantwortung. Andere Prozessinformationen sind für Schichtleiter, Planer und Manager von Nutzen. Sie brauchen solche individuell zusammengestellten Daten als Grundlage dafür, Prozesse zu optimieren und für die verschiedenen Produktionselemente eine gemeinsame Logik und standortspezifische Künstliche Intelligenz (KI) zu entwickeln.

Anforderungen an ein leistungsfähiges Tool

Damit die gesamte Organisation von ihr profitiert, muss eine optimale Visualisierungslösung also nicht nur für jeden Standort unterschiedlich aufgebaut sein, sondern auch unterschiedlichen Hierarchieebenen angepasste Informationen liefern. Um das zu gewährleisten, gilt es für Entscheider, die die Datenvisualisierung in ihren Betrieben auf den neusten Stand bringen wollen, einige maßgebliche Kriterien zu berücksichtigen:

  • Datenanbindung
    Eine wesentliche Voraussetzung ist, dass eine Datenanbindung an möglichst alle Vorsysteme und Datenquellen besteht – von Lieferanten über Maschinen bis hin zu Kundendaten. Gleichzeitig muss die Anwendung fehlertolerant sein, sodass die Visualisierungsleistung auch dann gegeben ist, wenn ein einzelner Systemabschnitt ausfällt. Diese Anforderung ist lösbar, wenn der Datenaustausch dezentral, also direkt zwischen dem System stattfindet, das die Daten erzeugt (zum Beispiel SAP), und dem Tool, das diese Daten visualisiert. Das bedeutet eine Abkehr von klassischen Business Intelligence (BI)-Strukturen hin zu einer eigenständigen Informationsbeschaffung durch jede einzelne Visualisierungs-Schnittstelle.
     
  • Schnelligkeit
    Datenverarbeitung und Visualisierung sind dann am nützlichsten, wenn sie in Echtzeit oder nur mit minimalem Zeitverlust stattfinden. Auch hierfür spielt der direkte und dezentrale Datenaustausch eine wichtige Rolle. Denn während in den Strukturen eines klassischen BISystems verschiedene Verarbeitungsschichten stattfinden und in der Regel einen großen Zeitversatz erzeugen, ist mit einem dezentralen Ansatz eine Visualisierung in Echtzeit möglich.
     
  • Reduzierung der Komplexität
    Um Mitarbeiter konkret zu besseren und effizienteren Arbeitsschritten zu befähigen, muss die Darstellung der Daten einer Informationslogik folgen, die keiner Interpretation bedarf. So sollte etwa einem Mechaniker nicht zugemutet werden, Rohdaten zu beurteilen, die den Gesamtprozess abbilden.
     
  • Eingabemöglichkeiten für Mitarbeiter
    In vielen Fällen kann es sinnvoll sein, dass Mitarbeiter direktes Feedback über ihre Arbeitsschritte in ein Informationssystem geben, zum Beispiel über einfache Touch-Screens. Dies gilt vor allem für individualisierte Einzelfertigung, in der kurz getaktetes Feedback Mitarbeitern hilft, die eigene Arbeit mit der ihrer Kollegen abzustimmen.
     
  • Prozessanweisungen
    Bei komplexen Prozessinformationen reicht es häufig nicht aus, lediglich Rohdaten zu liefern. Es ist die Aufgabe der Entwickler und Manager des Informationssystems zu definieren, wie mit welchen Daten umgegangen wird – jeder Information sollte also auch eine Prozessanweisung folgen können.
     
  • Flexibilität
    Für jeden Mitarbeiter und jede Abteilung sind individuelle Prozessinformationen und Handlungsanweisungen relevant. Ein zukunftsweisendes Visualisierungstool erbringt eine Selektionsleistung, die flexibel und für jeden Arbeitsbereich manuell anpassbar ist.
     
  • Agilität
    Ein gutes Informationssystem ist für jede Veränderung und Erweiterung im Betrieb anpassbar. Denn ein starr programmiertes Board wird im schlimmsten Fall die Tür zu weiteren Verbesserungen verschließen. Entsprechend sollte in der Architektur bereits die Option für einen langfristigen und kontinuierlichen Verbesserungsprozess mitgedacht werden, um das bestehende Informationssystem sukzessive auf- und ausbauen zu können. Digitalisierung kann so in kleinen und einfachen Schritten in Eigenregie umgesetzt werden, ohne dass dafür ausufernde Kosten für Beratungen, Systemumstrukturierungen oder ständig neu zu konsultierende IT-Expertise nötig wären.
Patrick Theobald, CTO und Gründer
Patrick Theobald
CTO und Gründer, Peakboard GmbH
Patrick Theobald ist CTO und Gründer des Stuttgarter Startups Peakboard. 
Das Unternehmen bietet Technologie zur Echtzeitvisualisierung von Prozessdaten, die in Produktion, Logistik, Verwaltung und am Point of Sale zum Einsatz kommt. 

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!

 

Artikel zu diesem Thema

Christopher Pavel (re.) und IT-Leiter Patrick Pirnay
Mär 26, 2020

Kostengünstiger IoT-Einstieg

Selbst intensiv diskutierte Technologie-Ansätze verlieren ihren theoretischen Charakter…
Big Data Trends 2020
Nov 14, 2019

Big Data Trends 2020: Analytics reicht nicht mehr aus

Eines steht fest: Der Umgang mit Daten wird in Zukunft weit über Suche, Dashboards und…
Monitoring
Sep 12, 2019

Komplexe IT-Infrastrukturen auf einen Blick

Komplexe IT-Infrastrukturen erleben häufig ein exponentielles Wachstum. Dadurch ist es…

Weitere Artikel

Analyse

Wachsende Nachfrage für Enterprise Knowledge Graphen

Der Markt für Knowledge Graphen wächst in rasantem Tempo. Das verdeutlicht die aktuelle Umfrage „Technology Executive Priorities for Knowledge Graphs“. Die Umfrage wirft einen Blick auf den Einsatz von Knowledge Graphen in Unternehmen, die zentralen…
Analyse

IT-Strategie in unsicheren Zeiten – was bringt die zweite Jahreshälfte?

Unternehmen stehen vor einer herausfordernden zweiten Jahreshälfte. Im günstigsten Fall ist eine gewisse Erholung der lokalen und globalen Wirtschaft zu erwarten, aber es wird weder zügig noch einfach ablaufen. Die IT bildet in dieser Hinsicht keine Ausnahme.
Daten

Datenqualität: Mit sauberen Daten digital durchstarten

Die Wirtschaft im deutschsprachigen Raum blickt wieder optimistischer in die Zukunft: Im Mai wie im Juni verzeichnete der Ifo-Geschäftsklimaindex ein deutliches Plus. Was brauchen Unternehmen, um jetzt richtig Gas zu geben? Gute Daten sorgen für einen…
Datenmanagement

Ohne Daten läuft in der deutschen Wirtschaft kaum noch etwas

Daten werden für Unternehmen aller Branchen immer wichtiger. Für 85 Prozent der Unternehmen in Deutschland mit 50 oder mehr Beschäftigten hat die Datennutzung bereits heute eine sehr große oder eher große Bedeutung. Und sogar 91 Prozent sind davon überzeugt,…

Anzeige

Newsletter Anmeldung

Smarte News aus der IT-Welt

Sie möchten wöchentlich über die aktuellen Fachartikel auf it-daily.net informiert werden? Dann abonnieren Sie jetzt den Newsletter!

Newsletter eBook

Exklusiv für Sie

Als Newsletter-Abonnent erhalten Sie das Booklet „Social Engineering: High Noon“ mit zahlreichen Illustrationen exklusiv und kostenlos als PDF!