VERANSTALTUNGEN

Automate IT
18.10.18 - 18.10.18
In Frankfurt am Main

ELO Solution Day - Stuttgart
18.10.18 - 18.10.18
In Kornwestheim (bei Stuttgart)

Digital Workspace World
22.10.18 - 22.10.18
In Wiesbaden, RheinMain CongressCenter

PM Forum 2018
23.10.18 - 24.10.18
In Nürnberg

PM Forum 2018
23.10.18 - 24.10.18
In Nürnberg

KI Erde Profil 584819977 500

Kaum ein Bereich von Wirtschaft und Gesellschaft diskutiert aktuell nicht die Auswirkungen, Chancen und Risiken von künstlicher Intelligenz und maschinellem Lernen. Neben den eigentlichen Anwendungen bzw. Applikationen und den daraus entstehenden Möglichkeiten diskutieren Anbieter und Anwender auch die Anforderungen an die IT-Infrastruktur, um maschinelles Lernen und künstliche Intelligenz praxistauglich einzusetzen.

Die zahlreichen Eindrücke auf dem AI-Gipfel in San Francisco fasst Güner Aksoy, Regional Sales Director Central Europe bei Pure Storage, in acht Punkten zusammen:

Breites Interesse, KI gewinnt an Fahrt

Künstliche Intelligenz ist ein Thema, das praktisch alle Branchen umfasst. Viele „Global 2000“-Unternehmen aus sämtlichen Branchen - Einzelhandelsfirmen, Telekommunikationsunternehmen, Automobilhersteller, Gesundheitsdienstleister, Pharma- und Medizingeräteunternehmen, Fluggesellschaften und Versicherer – interessieren sich zunehmend für die Möglichkeiten des maschinellen Lernens und der künstlichen Intelligenz.

Deep Learning ist anders als herkömmliche, analytische KI

Statistische Regression, Korrelation, Scoring und traditionelle Formen der Analytik können als KI klassifiziert werden. Sie unterscheiden sich jedoch deutlich vom Megatrend der Nutzung von neuronalen Netzwerken für Deep Learning. Es gibt Unterschiede in den Software-Tools, der Infrastruktur und den Fähigkeiten der Datenwissenschaftler, die sie anwenden. Beide Formen werden parallel existieren, aber die größten radikalen Innovationen werden von neuronalen Netzen ausgehen. Die Zeit ist reif für diese Entwicklung, weil die richtigen technischen „Zutaten“ alle gleichzeitig zusammenkommen. Auf der Software-Seite gibt es neue Software-Algorithmen, auf der Infrastrukturseite ist es eine Kombination aus GPU-getriebener Rechenleistung, schnelleren Netzwerken und Flash-Speicher zu beobachten.

Es geht um Datenpipelines

Ein Großteil des anfänglichen Hypes um KI konzentriert sich auf das Training von neuronalen Netzwerken. Um die Nutzung von KI in der Praxis erfolgreich umzusetzen, ist es wichtig zu verstehen, dass die meiste harte Arbeit vor der Trainingsphase erfolgt.

Das Sammeln, Extrahieren und Transformieren von Daten sind die ersten Schritte in dieser neuen Datenpipeline. Es gibt zwar unzählige Tools aus jahrzehntelangem Data Warehousing, aber ist es nicht einfach, gute Ergebnisse zu liefern.

Bei vielen Deep-Learning-Projekten werden die Herausforderungen im Zusammenhang mit der Datenmarkierung und dem Debugging des ursprünglichen Modells deutlich. Die Fähigkeit, diese beiden Phasen effektiv zu bewältigen, ist die größte Herausforderung – und ein Wettbewerbsvorteil für diejenigen, die es gut können. Sobald dies abgeschlossen ist, wird noch jede Menge GPU-, Netzwerk- und Speicher-Performance benötigt, um das Training selbst abzuschließen. Schneller, gemeinsam genutzter Speicher wird von großem Wert sein, ebenso wie die Möglichkeit, die Daten effizient durch diese neue Datenpipeline zu bewegen. Das manuelle Kopieren großer Datenmengen auf lokale SSDs für jede Stufe bietet keine Skalierbarkeit und behindert den schnellen Fortschritt.

Müll rein, Müll raus

Das Datenpipeline-Konzept ist wichtig, aber die Weisheit „Garbage in, Garbage out“ gilt immer noch. Wenn man schlechte Daten in ein neuronales Netzwerk einspeist, wird man nicht das erhoffte Ergebnis erzielen. Dies ist ein weiterer Grund, um Datenquellen richtig abzubilden und angemessene Anstrengungen bei der Erfassung, Extraktion und Transformation von Daten zu unternehmen.

Softwareentwicklung und Standard-Best-Practices

Ein Großteil der Anstrengungen um die neue Datenpipeline geht von Programmierern und Datenwissenschaftlern aus. Es gelten alle Standard-Best-Practices der Softwareentwicklung. Das Schema, mit dem Daten extrahiert und transformiert werden, ändert sich von Zeit zu Zeit, davon gibt es Versionen. Eine Kopie der Rohdaten wird beibehalten, um zu einem neuen Schema zurückzukehren und es erneut zu verarbeiten. Verarbeitete Daten werden erneut gespeichert, um zurückgehen und iterativ noch mehr Wert daraus zu ziehen. Alle Modelle werden in Git oder einem Quellcode-Kontrollsystem geprüft. Die Zusammenarbeit mit großen Softwareentwicklern gewährleistet effiziente Prozesse und macht gute Ergebnisse wahrscheinlicher.

Verarbeitung dort ausführen, wo die Daten gespeichert sind

Eine häufige Frage ist, ob ein neues KI-System in einem lokalen Rechenzentrum vor Ort oder in der Cloud erstellt werden sollte. Das Verschieben großer Datensätze ist kostspielig und komplex, sowohl hinsichtlich der Netzwerkbandbreite als auch hinsichtlich der Zeit und Komplexität. Wenn alle Daten aus einer Cloud-App generiert werden, sollte die KI auch dort ausgeführt werden. Wenn die Daten in einem bereits vorhandenen Rechenzentrum generiert oder zentralisiert werden, sollte das KI-Programm dort laufen.

Die einzige Konstante ist Veränderung, besonders für Software

Um eine erfolgreiche Deep-Learning-Pipeline zu implementieren, sind Mitarbeiter, Software und Infrastruktur erforderlich. Dabei wird die Softwareschicht die höchste Änderungsrate erfahren. Neue Softwarefunktionen werden immer wieder hinzukommen, so dass die Pipeline alle wahrscheinlich alle drei, sechs oder neun Monate verändert werden muss. Die Mitarbeiter werden kaum so oft auswechselt werden, und bei der Infrastruktur ist es ebenso unwahrscheinlich. Aufgrund dieser unterschiedlichen Veränderungsraten ist es äußerst wichtig, auf Menschen und Infrastrukturen zurückzugreifen, die sich an Veränderungen anpassen können.

Fachkräfte einstellen und Berater hinzuziehen

Angesichts der schnellen Innovationsrate in diesem Bereich weiß niemand alles. Daher ist es auch wichtig, sich mit kompetenten Beratern und Lieferanten zu umgeben und Kontakte innerhalb der Interessengruppe zu pflegen. Wer darüber nachdenkt, wie KI seinem Unternehmen helfen kann, benötigt auch den richtigen Hardwarepartner, der bei der Produktauswahl sowie der Implementierung hilft.

„Ähnlich wie beim Thema “Cloud Computing“ gab es zu Beginn der Diskussion rund um künstliche Intelligenz zunächst Begeisterung über die theoretischen Möglichkeiten. Es folgte eine Phase der Skepsis, in der das Pendel aber zurückschwang, als die Herausforderungen in der Praxis offensichtlich wurden. In der Folge wurden Schritt für Schritt Hürden überwunden, und heute die Cloud – on premise, privat oder public – allgegenwärtige Realität“, fasst Güner Aksoy zusammen. „ In Sachen künstlicher Intelligenz und maschinellem Lernen sind wir nun an dem Punkt, dass die theoretischen Möglichkeiten nicht mehr an der technologischen Realität scheitern müsse. Die Lösungen stehen bereit, nun gilt es sie zu implementieren und effizient einzusetzen.“

purestorage.com

 

GRID LIST
Tb W190 H80 Crop Int E14b23d2b8004a8b8336ad4da6e3db77

Ratgeber zur richtigen Voice Search Strategie

Mit der Verbreitung von Sprachassistenten wie Google Assistent oder Amazon Alexa wird…
Netzwerk Stadt

Mobil unterwegs: Die Netzwerk-Konnektivität geht auf die Straße

Die Möglichkeit, die Netzkonnektivität auf Fahrzeuge auszudehnen, hat die Art und Weise…
KI

IBM unternimmt wesentliche Schritte um die Black Box der KI zu öffnen

IBM stellt eine neue Technologie vor, die mehr Transparenz in den Bereich der Künstlichen…
Raumfahrer

Mit KI die unendlichen Weiten des Weltraums entdecken

Seit dem Seit dem 8. Juni ist Alexander Gerst im Rahmen der Mission „Horizons“ an Bord…
Blockchain

Erstes digitales B2B-Informationssystem auf Blockchain-Basis

Aus dem Datalovers-Lab kam kürzlich etwas Großes auf uns zu: Vor knapp zwei Wochen haben…
Michael Gloss

Premiere des Deutschen IT-Leiter-Kongresses DILK

Michael Gloss, Geschäftsführer von Wolters Kluwer Deutschland, im Gespräch mit it…
Smarte News aus der IT-Welt