Damit Roboter in Echtzeit reagieren können, brauchen sie spezialisierte Hardware direkt an Bord. Klassische Servertechnik ist dafür ungeeignet.
Roboter werden immer schlauer. Dank KI können sie ihre Umgebung wahrnehmen, eigenständig Entscheidungen treffen und auf unvorhergesehene Situationen reagieren, ohne dass ein Mensch eingreifen muss. Doch damit das funktioniert, brauchen sie das richtige „Gehirn”. Dell Technologies hat beschrieben, was diese Systeme leisten müssen und warum Standard-IT aus dem Rechenzentrum dabei versagt.
Von der Fabrik bis zum OP-Saal
Die Einsatzgebiete moderner Roboter sind enorm vielfältig. In der Logistik sortieren und transportieren sie Waren, in der Landwirtschaft ernten sie Obst und jäten Unkraut. In Krankenhäusern assistieren sie bei Operationen, in der Pflege helfen sie gebrechlichen Menschen beim Aufstehen. Im Bergbau oder auf Offshore-Plattformen übernehmen sie gefährliche Tätigkeiten, die Menschen nicht zumutbar sind.
Allen diesen Szenarien gemein ist: Die KI muss direkt am Roboter laufen. Eine Auslagerung der Datenverarbeitung in die Cloud oder ein entferntes Rechenzentrum scheidet aus, weil die Latenz zu hoch wäre und der Roboter bei Verbindungsabbrüchen sonst einfach stillstünde.
„Intelligente Roboter sind so vielseitig einsetzbar, dass sie in den kommenden Jahren zahlreiche Arbeitsbereiche erobern werden”, sagt Chris Kramar, Director & General Manager OEM Solutions DACH bei Dell Technologies. Damit das gelingt, müsse die zugrunde liegende IT aber konsequent auf die Anforderungen der Robotik zugeschnitten sein und nicht einfach aus dem nächsten Serverschrank gezogen werden.

Fünf Anforderungen, die Standard-Server nicht erfüllen
Das stellt besondere Ansprüche an die eingesetzte Hardware. Erstens müssen die Systeme robust sein: Vibrationen, Staub, Temperaturschwankungen und Feuchtigkeit dürfen ihnen nichts anhaben, Bedingungen unter denen ein normaler Rack-Server im klimatisierten Rechenzentrum nie arbeiten müsste.
Zweitens zählt der Formfaktor. Platz ist in und an Robotern knapp. Voluminöse Systeme würden Bewegungsabläufe einschränken oder den Einsatz in engen Umgebungen schlicht unmöglich machen.
Drittens ist Sicherheit gegen Manipulation gefragt. Roboter operieren oft in öffentlichen oder halböffentlichen Bereichen, ihre Hardware ist damit potenziell für jeden erreichbar. Ein Trusted Platform Module (TPM) soll sicherstellen, dass Veränderungen an Hardware oder Firmware zuverlässig erkannt werden und keine unbefugten Zugriffe möglich sind.
Viertens müssen die Systeme ohne IT-Fachpersonal vor Ort auskommen. Zero Touch Provisioning und Remote Management sind Pflicht: Ein Pfleger oder Lagerarbeiter soll das Gerät nur einstecken und einschalten müssen, den Rest erledigt das IT-Team aus der Ferne.
Fünftens ist Energieeffizienz entscheidend. Die meisten Roboter laufen auf Akkus. Energiehungrige CPUs und GPUs sind deshalb fehl am Platz. Stattdessen empfiehlt Dell den Einsatz von NPUs, also auf KI-Berechnungen spezialisierte Prozessoren, die weniger Strom verbrauchen, weniger Wärme erzeugen und im besten Fall sogar lüfterlose Designs ermöglichen.