IT-Sicherheit in Produktion und Technik
12.09.17 - 13.09.17
In Berlin

Be CIO: IT Management im digitalen Wandel
13.09.17 - 13.09.17
In Köln

IBC 2017
14.09.17 - 18.09.17
In Amsterdam

it-sa 2017
10.10.17 - 12.10.17
In Nürnberg

PM Forum 2017
24.10.17 - 25.10.17
In Nürnberg

Forscher am Robotics der Carnegie Mellon University (CMU) haben es geschafft, dass ein Computer in Echtzeit Körpersprache versteht und dabei erstmals auch die Position einzelner Finger erkennt - also auch ein Victory-Zeichen. 

Das funktioniert mittlerweile mit einem Laptop und einer Kamera. Für die Robotik ist die Entwicklung von großem Interesse, da die Erkennung von Körpersprache letztlich eine natürlichere Interaktion zwischen Mensch und Maschine verspricht.

Kompakt statt Kuppel

"Wir kommunizieren durch die Bewegung unseres Körpers fast so viel wie mit der Stimme", sagt Yaser Sheikh, Robotik-Professor an der CMU. Doch Computer sind auf diesem Auge bislang weitgehend blind. Mithilfe des zweistöckigen Kuppel Panotic Studios, die 500 Kameras enthält, hat sich Sheikhs Team mit der Erfassung von Körper und Hand in Videos befasst. Dank dieser Ergebnisse haben sie nun ein System, das mit nur einer Kamera auf einem Laptop schafft, die Körperhaltung einer Gruppe von Menschen zu beurteilen.

Das verspricht neue Möglichkeiten der nichtverbalen Interaktion von Mensch und Maschine. Wichtig ist das zum Beispiel für Roboter, die eng mit Personen zusammenarbeiten oder diese betreuen sollen. So wäre es praktisch, wenn Pflegeroboter das Zeigen auf einen Gegenstand als Aufforderung, diesen zu bringen, verstehen - diese Geste aber auch klar von anderen unterscheiden können. Die Körpersprache des gesamten Körpers wiederum könnte unter anderem für selbstfahrende Autos interessant sein. Damit ließe sich beispielsweise einschätzen, ob ein Fußgänger im Begriff ist, zwecks Straßenüberqueren die Fahrbahn zu betreten.

Wichtige Teilansichten

Die Arbeit mit dem Panoptic Studio hat es dem Team entscheidend erleichtert zu ergründen, wie es Computern die richtige Interpretation der Haltung von Händen beibringen kann. Denn wenngleich eine Hand auf einem Einzelbild beispielsweise durch einen gehaltenen Gegenstand teilweise verdeckt sein mag, ist ihre Haltung in den 500 gleichzeitig gemachten Aufnahmen aus allen Richtungen immer komplett zu erkennen. Die große Kuppel kommt nun zum Einsatz, um Computersysteme noch besser zu trainieren, was die Erkennung von Körper, Gesicht und Händen betrifft.

www.pressetext.com

Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet