VERANSTALTUNGEN

abas Global Conference
20.09.18 - 21.09.18
In Karlsruhe

EASY World 2018
20.09.18 - 20.09.18
In Mülheim an der Ruhr

it-sa 2018
09.10.18 - 11.10.18
In Nürnberg

plentymarkets Omni-Channel Day 2018
12.10.18 - 12.10.18
In Kassel

Digital Marketing 4Heroes Conference
16.10.18 - 16.10.18
In Wien und München

Forscher am Robotics der Carnegie Mellon University (CMU) haben es geschafft, dass ein Computer in Echtzeit Körpersprache versteht und dabei erstmals auch die Position einzelner Finger erkennt - also auch ein Victory-Zeichen. 

Das funktioniert mittlerweile mit einem Laptop und einer Kamera. Für die Robotik ist die Entwicklung von großem Interesse, da die Erkennung von Körpersprache letztlich eine natürlichere Interaktion zwischen Mensch und Maschine verspricht.

Kompakt statt Kuppel

"Wir kommunizieren durch die Bewegung unseres Körpers fast so viel wie mit der Stimme", sagt Yaser Sheikh, Robotik-Professor an der CMU. Doch Computer sind auf diesem Auge bislang weitgehend blind. Mithilfe des zweistöckigen Kuppel Panotic Studios, die 500 Kameras enthält, hat sich Sheikhs Team mit der Erfassung von Körper und Hand in Videos befasst. Dank dieser Ergebnisse haben sie nun ein System, das mit nur einer Kamera auf einem Laptop schafft, die Körperhaltung einer Gruppe von Menschen zu beurteilen.

Das verspricht neue Möglichkeiten der nichtverbalen Interaktion von Mensch und Maschine. Wichtig ist das zum Beispiel für Roboter, die eng mit Personen zusammenarbeiten oder diese betreuen sollen. So wäre es praktisch, wenn Pflegeroboter das Zeigen auf einen Gegenstand als Aufforderung, diesen zu bringen, verstehen - diese Geste aber auch klar von anderen unterscheiden können. Die Körpersprache des gesamten Körpers wiederum könnte unter anderem für selbstfahrende Autos interessant sein. Damit ließe sich beispielsweise einschätzen, ob ein Fußgänger im Begriff ist, zwecks Straßenüberqueren die Fahrbahn zu betreten.

Wichtige Teilansichten

Die Arbeit mit dem Panoptic Studio hat es dem Team entscheidend erleichtert zu ergründen, wie es Computern die richtige Interpretation der Haltung von Händen beibringen kann. Denn wenngleich eine Hand auf einem Einzelbild beispielsweise durch einen gehaltenen Gegenstand teilweise verdeckt sein mag, ist ihre Haltung in den 500 gleichzeitig gemachten Aufnahmen aus allen Richtungen immer komplett zu erkennen. Die große Kuppel kommt nun zum Einsatz, um Computersysteme noch besser zu trainieren, was die Erkennung von Körper, Gesicht und Händen betrifft.

www.pressetext.com

GRID LIST
Tb W190 H80 Crop Int 0fe25846dc47a25f1e8decd7071304d9

Schwachstellen schließen mit Unified-Endpoint-Management

Die baramundi software AG wird als Aussteller auf der diesjährigen it-sa 2018 vom 9. -…
Tb W190 H80 Crop Int A483b1aaafccc1c66096ec088db0a7af

New Generation Security: IT-Sicherheit für jedes Unternehmen

Kaspersky Lab stellt seine Technologien und Services in diesem Jahr auf der it-sa in…
Schloss

Airbus CyberSecurity präsentiert Abwehrmechanismen gegen Cyberangriffe auf OT-/ICS-Systeme

Airbus CyberSecurity stellt mit seinem Partner Stormshield auf der diesjährigen it-sa in…
We are hiring

Kandidatensuche in sozialen Netzwerken ist noch die Ausnahme

Immer häufiger bekommen Unternehmen auf ihre Stellenanzeigen keine geeigneten…
Hacker

43,4 Mrd. Euro Schaden durch Spionage und Co

43,4 Mrd. Euro Schaden durch Sabotage, Datendiebstahl oder Spionage in den Jahren 2016…
Facebook

Facebook: KI-Tool behebt Softwarefehler

Facebook hat anlässlich der Ingenieurskongerenz @Scale ein KI-Tool vorgestellt, das zur…
Smarte News aus der IT-Welt