VERANSTALTUNGEN

IT-Sourcing 2018
03.09.18 - 04.09.18
In Hamburg

DILK 2018
17.09.18 - 19.09.18
In Düsseldorf

abas Global Conference
20.09.18 - 21.09.18
In Karlsruhe

it-sa 2018
09.10.18 - 11.10.18
In Nürnberg

Digital Marketing 4Heroes Conference
16.10.18 - 16.10.18
In Wien und München

KI Erde Profil 584819977 500

Kaum ein Bereich von Wirtschaft und Gesellschaft diskutiert aktuell nicht die Auswirkungen, Chancen und Risiken von künstlicher Intelligenz und maschinellem Lernen. Neben den eigentlichen Anwendungen bzw. Applikationen und den daraus entstehenden Möglichkeiten diskutieren Anbieter und Anwender auch die Anforderungen an die IT-Infrastruktur, um maschinelles Lernen und künstliche Intelligenz praxistauglich einzusetzen.

Die zahlreichen Eindrücke auf dem AI-Gipfel in San Francisco fasst Güner Aksoy, Regional Sales Director Central Europe bei Pure Storage, in acht Punkten zusammen:

Breites Interesse, KI gewinnt an Fahrt

Künstliche Intelligenz ist ein Thema, das praktisch alle Branchen umfasst. Viele „Global 2000“-Unternehmen aus sämtlichen Branchen - Einzelhandelsfirmen, Telekommunikationsunternehmen, Automobilhersteller, Gesundheitsdienstleister, Pharma- und Medizingeräteunternehmen, Fluggesellschaften und Versicherer – interessieren sich zunehmend für die Möglichkeiten des maschinellen Lernens und der künstlichen Intelligenz.

Deep Learning ist anders als herkömmliche, analytische KI

Statistische Regression, Korrelation, Scoring und traditionelle Formen der Analytik können als KI klassifiziert werden. Sie unterscheiden sich jedoch deutlich vom Megatrend der Nutzung von neuronalen Netzwerken für Deep Learning. Es gibt Unterschiede in den Software-Tools, der Infrastruktur und den Fähigkeiten der Datenwissenschaftler, die sie anwenden. Beide Formen werden parallel existieren, aber die größten radikalen Innovationen werden von neuronalen Netzen ausgehen. Die Zeit ist reif für diese Entwicklung, weil die richtigen technischen „Zutaten“ alle gleichzeitig zusammenkommen. Auf der Software-Seite gibt es neue Software-Algorithmen, auf der Infrastrukturseite ist es eine Kombination aus GPU-getriebener Rechenleistung, schnelleren Netzwerken und Flash-Speicher zu beobachten.

Es geht um Datenpipelines

Ein Großteil des anfänglichen Hypes um KI konzentriert sich auf das Training von neuronalen Netzwerken. Um die Nutzung von KI in der Praxis erfolgreich umzusetzen, ist es wichtig zu verstehen, dass die meiste harte Arbeit vor der Trainingsphase erfolgt.

Das Sammeln, Extrahieren und Transformieren von Daten sind die ersten Schritte in dieser neuen Datenpipeline. Es gibt zwar unzählige Tools aus jahrzehntelangem Data Warehousing, aber ist es nicht einfach, gute Ergebnisse zu liefern.

Bei vielen Deep-Learning-Projekten werden die Herausforderungen im Zusammenhang mit der Datenmarkierung und dem Debugging des ursprünglichen Modells deutlich. Die Fähigkeit, diese beiden Phasen effektiv zu bewältigen, ist die größte Herausforderung – und ein Wettbewerbsvorteil für diejenigen, die es gut können. Sobald dies abgeschlossen ist, wird noch jede Menge GPU-, Netzwerk- und Speicher-Performance benötigt, um das Training selbst abzuschließen. Schneller, gemeinsam genutzter Speicher wird von großem Wert sein, ebenso wie die Möglichkeit, die Daten effizient durch diese neue Datenpipeline zu bewegen. Das manuelle Kopieren großer Datenmengen auf lokale SSDs für jede Stufe bietet keine Skalierbarkeit und behindert den schnellen Fortschritt.

Müll rein, Müll raus

Das Datenpipeline-Konzept ist wichtig, aber die Weisheit „Garbage in, Garbage out“ gilt immer noch. Wenn man schlechte Daten in ein neuronales Netzwerk einspeist, wird man nicht das erhoffte Ergebnis erzielen. Dies ist ein weiterer Grund, um Datenquellen richtig abzubilden und angemessene Anstrengungen bei der Erfassung, Extraktion und Transformation von Daten zu unternehmen.

Softwareentwicklung und Standard-Best-Practices

Ein Großteil der Anstrengungen um die neue Datenpipeline geht von Programmierern und Datenwissenschaftlern aus. Es gelten alle Standard-Best-Practices der Softwareentwicklung. Das Schema, mit dem Daten extrahiert und transformiert werden, ändert sich von Zeit zu Zeit, davon gibt es Versionen. Eine Kopie der Rohdaten wird beibehalten, um zu einem neuen Schema zurückzukehren und es erneut zu verarbeiten. Verarbeitete Daten werden erneut gespeichert, um zurückgehen und iterativ noch mehr Wert daraus zu ziehen. Alle Modelle werden in Git oder einem Quellcode-Kontrollsystem geprüft. Die Zusammenarbeit mit großen Softwareentwicklern gewährleistet effiziente Prozesse und macht gute Ergebnisse wahrscheinlicher.

Verarbeitung dort ausführen, wo die Daten gespeichert sind

Eine häufige Frage ist, ob ein neues KI-System in einem lokalen Rechenzentrum vor Ort oder in der Cloud erstellt werden sollte. Das Verschieben großer Datensätze ist kostspielig und komplex, sowohl hinsichtlich der Netzwerkbandbreite als auch hinsichtlich der Zeit und Komplexität. Wenn alle Daten aus einer Cloud-App generiert werden, sollte die KI auch dort ausgeführt werden. Wenn die Daten in einem bereits vorhandenen Rechenzentrum generiert oder zentralisiert werden, sollte das KI-Programm dort laufen.

Die einzige Konstante ist Veränderung, besonders für Software

Um eine erfolgreiche Deep-Learning-Pipeline zu implementieren, sind Mitarbeiter, Software und Infrastruktur erforderlich. Dabei wird die Softwareschicht die höchste Änderungsrate erfahren. Neue Softwarefunktionen werden immer wieder hinzukommen, so dass die Pipeline alle wahrscheinlich alle drei, sechs oder neun Monate verändert werden muss. Die Mitarbeiter werden kaum so oft auswechselt werden, und bei der Infrastruktur ist es ebenso unwahrscheinlich. Aufgrund dieser unterschiedlichen Veränderungsraten ist es äußerst wichtig, auf Menschen und Infrastrukturen zurückzugreifen, die sich an Veränderungen anpassen können.

Fachkräfte einstellen und Berater hinzuziehen

Angesichts der schnellen Innovationsrate in diesem Bereich weiß niemand alles. Daher ist es auch wichtig, sich mit kompetenten Beratern und Lieferanten zu umgeben und Kontakte innerhalb der Interessengruppe zu pflegen. Wer darüber nachdenkt, wie KI seinem Unternehmen helfen kann, benötigt auch den richtigen Hardwarepartner, der bei der Produktauswahl sowie der Implementierung hilft.

„Ähnlich wie beim Thema “Cloud Computing“ gab es zu Beginn der Diskussion rund um künstliche Intelligenz zunächst Begeisterung über die theoretischen Möglichkeiten. Es folgte eine Phase der Skepsis, in der das Pendel aber zurückschwang, als die Herausforderungen in der Praxis offensichtlich wurden. In der Folge wurden Schritt für Schritt Hürden überwunden, und heute die Cloud – on premise, privat oder public – allgegenwärtige Realität“, fasst Güner Aksoy zusammen. „ In Sachen künstlicher Intelligenz und maschinellem Lernen sind wir nun an dem Punkt, dass die theoretischen Möglichkeiten nicht mehr an der technologischen Realität scheitern müsse. Die Lösungen stehen bereit, nun gilt es sie zu implementieren und effizient einzusetzen.“

purestorage.com

 

GRID LIST
KI

Sechs Faktoren entscheiden über den Erfolg von KI

Immer mehr Power-User in Fachabteilungen drängen darauf, KI-basierte Applikationen…
Tb W190 H80 Crop Int 16bec5ef61e05bdb582571ce0d95c23a

Vernetzte Plattformen für die moderne Stadt

Die Digitalisierung und der damit einhergehende Gebrauch von Internetdiensten für…
Paul Parker

Tipps für den IT-Wandel in Behörden

Die Anforderungen der neuen EU-Datenschutz-Grundverordnung ist nur eine von vielen…
Tb W190 H80 Crop Int 2fda1742e8087944a3883dee6a5d842a

Vom „Moment of Truth“ zur „Period of Truth“

Immer mehr Industrieunternehmen erkennen das Potential, ihre Geräte im „Internet of…
Status quo

Status quo der Digitalisierung im Controlling

Auf dem Weg der digitalen Transformation sind Unternehmen bisher unterschiedlich weit…
Tb W190 H80 Crop Int C152224f152e88c115a3f094169de715

Voraussetzungen für die Optimierung des KI-Einsatzes

Künstliche Intelligenz ist weder Allheilsbringer noch Weltuntergang, sondern eine…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security