Anzeige

Anzeige

VERANSTALTUNGEN

Rethink! IT 2019
16.09.19 - 17.09.19
In Berlin

DSAG-Jahreskongress
17.09.19 - 19.09.19
In Nürnberg, Messezentrum

ACMP Competence Days Stuttgart
18.09.19 - 18.09.19
In simINN Flugsimulator, Stuttgart

SD-WAN im Alltag – sichere Vernetzung mit Peplink
18.09.19 - 18.09.19
In München

Be CIO Summit
26.09.19 - 26.09.19
In Design Offices Frankfurt Wiesenhüttenplatz, Frankfurt am Main

Anzeige

Anzeige

Roboter, die schnell laufen

Künstliche Intelligenz (KI) ist der Megatrend für Unternehmen aus den Bereichen Produktion, Dienstleistung und Handel. In der Kombination von Hochleistungs-CPUs, Computing-as-a-Service-Konzepten und Netzwerk-Technologien können selbstlernende Systeme ihr volles Potenzial entfalten. Der große Vorteil: Im Gegensatz zur reinen Speicherung in der Cloud bleiben unternehmenskritische Daten im eigenen Rechenzentrum. 

Maschinelle Lernverfahren gelten als treibende Kraft hinter Entwicklungen wie dem Internet der Dinge oder dem autonomen Fahren. Ein wichtiger Meilenstein auf diesem Weg ist die Symbiose von High Performance Computing-Technologien und der Nutzung neuronaler Netze. Der folgende Vergleich macht deutlich, welche Rechenleistung in Verbindung mit Hochleistungs-CPUs wie zum Beispiel den IBM POWER 9-Systemen möglich ist: Ein aktueller GPU-Beschleuniger wie die NVIDIA Volta 100 schafft 120 Teraflops bei einem Energieverbrauch von lediglich 0,3 Kilowatt. Vor einigen Jahren wurden dafür noch 20.000 Rechensysteme mit einem Verbrauch von mehr als vier Megawatt benötigt. Hinzu kommt der beeindruckende Fortschritt bei den Speicher- und Dateisystemen. Dadurch wird nicht nur die Automatisierung von Prozessen begünstigt, sondern auch die sichere Speicherung großer Datenmengen ermöglicht. Selbst anspruchsvolle Workloads sind somit effizient, schnell und ohne großen Raumbedarf im eigenen Rechenzentrum realisierbar.

Ohne Spezialisten mit Digital-Expertise bleibt der Erfolg fragwürdig

Ohne erfahrenen IT-Spezialisten an der Seite lässt sich das Potenzial von KI-Lösungen allerdings nur schwer abschätzen und gewinnbringend vermarkten. „Im ersten Schritt sollten gemeinsam Testfelder für Use Cases definiert und Vorschläge für die technische Infrastruktur sowie die organisatorischen Rahmenbedingungen erarbeitet werden“, empfiehlt Dr. Ulrich Walter, Business Development Manager im AI Acceleration Team von Tech Data. „So können zum Beispiel die Bereiche Supply Chain Management, Wartung und Qualitätskontrolle massiv von KI-Konzepten profitieren.“ Aber auch in der Buchhaltung, im Controlling und in der Distribution sind zahllose Vorgänge automatisierbar: „Mit Tools zur KI-basierten Schrifterkennung für Handschriften, Formulare oder elektronische Dokumente lassen sich Prozesse im Inputmanagement bis hin zur Workflow-Integration effizient und sicher realisieren“, so der Experte.

Tatsächlich steht die Effizienzoptimierung in einer modernen IT-Architektur im engen Zusammenhang mit Computing-Performance, Bandbreite und Latenzzeit. Vor allem bei Deep Learning-Workloads steigt der Bedarf an schnellen und leicht skalierbaren Connectivity-Konzepten. Reine Cloud-Lösungen sind hier oft nur ein Kompromiss – vor allem wegen der vielerorts schwierigen Netzwerkbedingungen, überlangen Up- und Downloadzeiten sowie hohen Kosten. Zudem sorgen sich viele Entscheider um die Sicherheit ihrer geschäftskritischen Unternehmensdaten, wenn diese bei einem externen Cloud-Dienstleister analysiert und abgelegt werden.

High Performance Computing as-a-Service schafft optimale Skalierbarkeit

Ein Open Source-Betriebssystem, wie es Linux on IBM Power bietet, lässt Unternehmen die komplette Kontrolle über ihre Netzwerk-Management-Plattform. Dennoch steht ein Höchstmaß an Skalierbarkeit, Stabilität und Zuverlässigkeit bei gleichbleibend hoher Leistung zur Verfügung – unverzichtbar für leistungsintensive KI- und Analyseverfahren. Große Datenmengen werden sicher und effizient verarbeitet, was auch die Laufzeiten für rechenintensive Trainingsläufe zur Entwicklung von KI-Anwendungen optimiert. Im praktischen Einsatz lässt sich so eine On-Premises-Lösung hervorragend mit einem HPC-as-a-Service-Ansatz kombinieren. So können bei Bedarf neben den lokalen Ressourcen weitere Rechenleistungen aus der Cloud bezogen werden. Dadurch profitieren Unternehmen von einer neuen Qualität an Flexibilität und Agilität. Darüber hinaus lassen sich die Systeme mit optimal aufeinander abgestimmten Softwarebausteinen zu hochperformanten Clustern zusammenführen. Dadurch verringert sich die Anlaufzeit bis zum realen Business-Einsatz erheblich.

Ulrich WalterKein Wunder, dass KI-Spezialisten wie Ulrich Walter (Foto) in diesem Zusammenhang schon von einer Renaissance der Hardware sprechen: „Mit High Performance Computing behalten Unternehmen die komplette Kontrolle über ihre Daten und können jederzeit auf wichtige Prozesse im Rechenzentrum zugreifen – unabhängig von einer schnellen Internetverbindung. Die Anwendungen können On-Premises im Unternehmen konfiguriert und ohne fremde Eingriffe in andere Lösungen integriert werden“, so der Business Development Manager von Tech Data. „Aber auch die Verknüpfung von On-Premises-Konzepten mit Services aus der Hybrid Cloud ist eine attraktive Lösung für Trendtechnologien wie Machine Learning oder Cognitive Computing.“

Frank Erdle, freier IT-Fachjournalist

 

 


 

GRID LIST
Monitoring

Komplexe IT-Infrastrukturen auf einen Blick

Komplexe IT-Infrastrukturen erleben häufig ein exponentielles Wachstum. Dadurch ist es…
Warnung Schild: Are You Ready

Was für ein Desaster! Konzepte zur Krisenbewältigung

Ein Desaster macht aus, dass es sich im Vorfeld nicht ankündigt. Als katastrophales…
KI und Monitoring

Plattform für das Management von hybriden Infrastrukturen

Wie managt man am besten hybriden Infrastrukturen? Die Antwort: Mit einer AIOps-fähigen…
Mann entspannt

Eine Frage des Vertrauens

Technische Komplexität, zu wenig Zeit und es fehlen Fachleute im eigenen Haus. Die…
Outsourcing

Outsourcing-Tipps: Auslagern statt selber machen

Immer größere Datenmengen, vermehrter Einsatz digitaler Prozesse sowie Anforderungen an…
Netzwerk Frau

Vermeidbare Fehler bei der Implementierung von SD-WAN

Software-Defined Wide Area Networks (SD-WAN) sind dynamisch und kostengünstig,…