Intelligente Datenvisualisierung

Nur sichtbare Prozessdaten lassen sich auch effektiv nutzen

Das Board liefert den Mitarbeitern eines Logistik-Zentrums wertvolle Informationen. (Quelle Peakboard)

Nur wer seine Prozessdaten sichtbar macht, nutzt sie auch effektiv. Somit ist die intelligente Datenvisualisierung in Echtzeit der Schlüssel zu Effektivität und Prozesssicherheit für digitale Produktionsprozesse.

Im Zeitalter digitalisierter Fertigung liefern verschiedenste Maschinen, Sensoren und sonstige Datenquellen eine Vielzahl von Prozessinformationen. Damit besteht, zumindest theoretisch, eine sehr umfangreiche und mit fortschreitender Digitalisierung und Vernetzung der Anlagen weiter wachsende Informationsbasis für Prozessoptimierung. Das Problem dabei liegt in drei entscheidenden Punkten:

Anzeige

In der Regel und nach aktuellem Stand der Technik wird ein Bereitstellungszyklus von Rohdaten der verschiedenen Teilsysteme nur einmal pro Tag durchlaufen. Im einfachsten Fall mit Visualisierungstools wie Excel oder Software von Herstellern wie Tableau, QlikView oder ähnlichen Anwendungen.

Die Frage danach, an welcher Stelle ein Fehler entstanden ist, ist damit oft erst am Ende eines Tages beziehungsweise eines Auswertungszyklus zu beantworten – und zwar nur rückblickend, häufig nur unkonkret und nur von wenigen Einzelpersonen. Flexible Regulierung fein verzahnter Arbeitsschritte kann mit solchen retrospektiven Informationen niemand leisten, der seinen Prozess direkt steuern und optimieren will. Gerade eine solche flexible Prozessoptimierung ist angesichts zunehmend individualisierter Fertigungsaufträge und Just-in-time Produktion immer notwendiger, um Effektivität und Prozesssicherheit zu gewährleisten.

Prozesssicherheit und Effektivität

Dies ist erst dann möglich, wenn alle Mitarbeiter eines Betriebes permanenten Einblick in laufende Prozesse haben. Manager und Planer müssen also Informationssysteme entwickeln, die jedem Beteiligten die jeweils für ihn relevanten Informationen sammeln, sinnvoll miteinander verbinden und verständlich sichtbar machen. Und zwar in Echtzeit. Solche Informationen erhöhen die Wahrscheinlichkeit der Zielerfüllung signifikant, denn Mitarbeiter können nur dann, wenn sie Probleme im Ablauf frühzeitig erkennen, adäquat auf sie reagieren. Zum Beispiel mithilfe eines Fehlteilmonitors, der nicht nur anzeigt, welche Materialien vorhanden sind und welche fehlen, sondern der gleichzeitig angibt, welche nächsten Arbeitsschritte möglich und sinnvoll sind. So ist es Mitarbeitern möglich frühzeitig neue Prioritäten setzen, bevor sie mit Arbeitsschritten beginnen, die schlimmstenfalls gar nicht abgeschlossen werden können und eine Störung des Gesamtablaufs zur Folge hätten.

Solche Informationen dienen als wichtige Grundlage für akute Fehlervermeidung während des Fertigungsprozesses selbst und befähigen handwerklich tätige Mitarbeiter zu mehr Eigenverantwortung. Andere Prozessinformationen sind für Schichtleiter, Planer und Manager von Nutzen. Sie brauchen solche individuell zusammengestellten Daten als Grundlage dafür, Prozesse zu optimieren und für die verschiedenen Produktionselemente eine gemeinsame Logik und standortspezifische Künstliche Intelligenz (KI) zu entwickeln.

Anforderungen an ein leistungsfähiges Tool

Damit die gesamte Organisation von ihr profitiert, muss eine optimale Visualisierungslösung also nicht nur für jeden Standort unterschiedlich aufgebaut sein, sondern auch unterschiedlichen Hierarchieebenen angepasste Informationen liefern. Um das zu gewährleisten, gilt es für Entscheider, die die Datenvisualisierung in ihren Betrieben auf den neusten Stand bringen wollen, einige maßgebliche Kriterien zu berücksichtigen:

  • Datenanbindung
    Eine wesentliche Voraussetzung ist, dass eine Datenanbindung an möglichst alle Vorsysteme und Datenquellen besteht – von Lieferanten über Maschinen bis hin zu Kundendaten. Gleichzeitig muss die Anwendung fehlertolerant sein, sodass die Visualisierungsleistung auch dann gegeben ist, wenn ein einzelner Systemabschnitt ausfällt. Diese Anforderung ist lösbar, wenn der Datenaustausch dezentral, also direkt zwischen dem System stattfindet, das die Daten erzeugt (zum Beispiel SAP), und dem Tool, das diese Daten visualisiert. Das bedeutet eine Abkehr von klassischen Business Intelligence (BI)-Strukturen hin zu einer eigenständigen Informationsbeschaffung durch jede einzelne Visualisierungs-Schnittstelle.
     
  • Schnelligkeit
    Datenverarbeitung und Visualisierung sind dann am nützlichsten, wenn sie in Echtzeit oder nur mit minimalem Zeitverlust stattfinden. Auch hierfür spielt der direkte und dezentrale Datenaustausch eine wichtige Rolle. Denn während in den Strukturen eines klassischen BISystems verschiedene Verarbeitungsschichten stattfinden und in der Regel einen großen Zeitversatz erzeugen, ist mit einem dezentralen Ansatz eine Visualisierung in Echtzeit möglich.
     
  • Reduzierung der Komplexität
    Um Mitarbeiter konkret zu besseren und effizienteren Arbeitsschritten zu befähigen, muss die Darstellung der Daten einer Informationslogik folgen, die keiner Interpretation bedarf. So sollte etwa einem Mechaniker nicht zugemutet werden, Rohdaten zu beurteilen, die den Gesamtprozess abbilden.
     
  • Eingabemöglichkeiten für Mitarbeiter
    In vielen Fällen kann es sinnvoll sein, dass Mitarbeiter direktes Feedback über ihre Arbeitsschritte in ein Informationssystem geben, zum Beispiel über einfache Touch-Screens. Dies gilt vor allem für individualisierte Einzelfertigung, in der kurz getaktetes Feedback Mitarbeitern hilft, die eigene Arbeit mit der ihrer Kollegen abzustimmen.
     
  • Prozessanweisungen
    Bei komplexen Prozessinformationen reicht es häufig nicht aus, lediglich Rohdaten zu liefern. Es ist die Aufgabe der Entwickler und Manager des Informationssystems zu definieren, wie mit welchen Daten umgegangen wird – jeder Information sollte also auch eine Prozessanweisung folgen können.
     
  • Flexibilität
    Für jeden Mitarbeiter und jede Abteilung sind individuelle Prozessinformationen und Handlungsanweisungen relevant. Ein zukunftsweisendes Visualisierungstool erbringt eine Selektionsleistung, die flexibel und für jeden Arbeitsbereich manuell anpassbar ist.
     
  • Agilität
    Ein gutes Informationssystem ist für jede Veränderung und Erweiterung im Betrieb anpassbar. Denn ein starr programmiertes Board wird im schlimmsten Fall die Tür zu weiteren Verbesserungen verschließen. Entsprechend sollte in der Architektur bereits die Option für einen langfristigen und kontinuierlichen Verbesserungsprozess mitgedacht werden, um das bestehende Informationssystem sukzessive auf- und ausbauen zu können. Digitalisierung kann so in kleinen und einfachen Schritten in Eigenregie umgesetzt werden, ohne dass dafür ausufernde Kosten für Beratungen, Systemumstrukturierungen oder ständig neu zu konsultierende IT-Expertise nötig wären.

Theobald Patrick

Peakboard GmbH -

CTO und Gründer

Patrick Theobald ist CTO und Gründer des Stuttgarter Startups Peakboard.  Das Unternehmen bietet Technologie zur Echtzeitvisualisierung von Prozessdaten, die in Produktion, Logistik, Verwaltung und am Point of Sale zum Einsatz kommt. 
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.