VERANSTALTUNGEN

DAHO.AM
24.07.18 - 24.07.18
In München

IT-Sourcing 2018
03.09.18 - 04.09.18
In Hamburg

2. Jahrestagung Cyber Security Berlin
11.09.18 - 12.09.18
In Berlin

DILK 2018
17.09.18 - 19.09.18
In Düsseldorf

it-sa 2018
09.10.18 - 11.10.18
In Nürnberg

BlickDer menschliche Blickkontakt ist eine wichtige Informationsquelle im Bereich der Außenwerbung und des Marketings, für Assistenzsysteme wie beispielsweise im Auto oder auch für die Zusammenarbeit zwischen Robotern und Menschen. Allerdings war es bisher nur sehr eingeschränkt möglich, Blickkontakt in alltäglichen Situationen zu erkennen. 

Informatiker des Exzellenzclusters an der Universität des Saarlandes und des Max-Planck-Instituts für Informatik haben nun mit einem Kollegen von der Universität Osaka eine Methode entwickelt, mit deren Hilfe der Blickkontakt unabhängig von der Art und Größe der Zielobjekte, der Position der Kamera und der Umgebung möglich ist.

„Wenn Sie ein Werbeplakat in der Fußgängerzone aufhängen oder Werbung und wissen wollen, wie viele Personen es tatsächlich anschauen, hatten Sie bisher keine Chance“, erklärt Andreas Bulling, der am Exzellenzcluster der Universität des Saarlandes und am Max-Planck-Institut für Informatik die unabhängige Nachwuchsgruppe „Perceptual User Interfaces“ leitet. Denn bisher sucht man diese wichtige, aber auch simple Information zu erfassen, indem man die Blickrichtung maß. Das setzte spezielle Kameras, deren minutenlange Kalibrierung voraus, und vor allem galt: Jeder musste eine solche Kamera tragen. Tests wie in der Fußgängerzone oder gar nur mehreren Personen waren damit im besten Fall sehr aufwendig, im schlimmsten Fall unmöglich.

Selbst wenn die Kamera am Zielobjekt, beispielsweise am Poster, saß und Maschinelles Lernen eingesetzt wurde, der Computer also mithilfe einer ausreichenden Menge von Beispieldaten trainiert wurde, konnten nur Blicke auf die Kamera selbst erkannt werden. Zu oft war der Unterschied zwischen den Trainingsdaten und den Daten in der Zielumgebung zu groß. Ein universeller Blickkontakt-Erkenner, einsetzbar sowohl für kleine und große Zielobjekte, in stationären und mobilen Situationen, einen Anwender oder gar eine ganze Gruppe oder unter wechselnden Beleuchtungssituationen, war bislang nahezu unmöglich.

Neue Algorithmen schätzen die Blickrichtung

Zusammen mit seinem Doktorand Xucong Zhang und seinem Postdoktorand Yusuke Sugano, der nun Professor an der Universität Osaka ist, hat Bulling nun eine Methode entwickelt [1], die auf einer neuen Generation von Algorithmen zur Blickrichtungsschätzung basiert. Diese verwenden eine spezielle Art von neuronalem Netzwerk, das unter dem Begriff „Deep Learning“ aktuell in vielen Bereichen der Industrie und Wirtschaft für Furore sorgt. Bereits seit zwei Jahren [2] arbeiten Bulling und seine Kollegen damit und haben es Schritt für Schritt weiterentwickelt [3]. Im nun vorgestellten Verfahren wird zunächst ein sogenanntes Clustering (Ballungsanalyse) der geschätzten Blickrichtungen durchgeführt. Mit der gleichen Strategie kann man beispielsweise auch Äpfel und Birnen anhand verschiedener Merkmale sortieren, ohne explizit vorgeben zu müssen, worin sich die beiden unterscheiden. In einem zweiten Schritt wird dann der wahrscheinlichste Cluster identifiziert und die darin enthaltenen Blickrichtungsschätzungen für das Training eines, für das Zielobjekt spezifischen, Blickrichtungs-Erkenners verwendet.

Alles ohne die Mitwirkung des Betrachters

Ein entscheidender Vorteil dieses Vorgehens ist, dass er ganz ohne Mitwirkung des Benutzers erfolgt und die Methode somit auch immer besser werden kann, je länger die Kamera neben dem Zielobjekt verbleibt und Daten aufnimmt. „Auf diese Weise verwandelt unsere Methode normale Kameras in einen Blickkontakt-Erkenner, ohne zuvor Größe oder Position des Zielobjektes kennen oder vorgeben zu müssen“, erklärt Bulling.

Die Forscher haben ihre Methode bisher in zwei Szenarien getestet: Am Arbeitsplatz, die Kamera war hier auf dem Zielobjekt montiert, und im Alltag, der Anwender trug hier eine Kamera am Körper, so dass sich eine ich-bezogene Perspektive ergab. Das Ergebnis: Da die Methode sich ihr nötiges Wissen selbst erarbeitet, ist sie robust, selbst wenn die Anzahl der Personen, die Lichtverhältnisse, die Kamerapositionen und die Zielobjekte in ihrer Art und Größe variieren.

Bulling schränkt ein: „Wir können zwar grundsätzlich Blickrichtungs-Cluster auf mehreren Zielobjekten mit nur einer Kamera identifizieren, aber die Zuordnung dieser Cluster zu den verschiedenen Objekten ist noch nicht möglich. Unsere Methode nimmt daher momentan an, dass der nächstgelegene Cluster zum Zielobjekt gehört und ignoriert die restlichen Cluster. Diese Einschränkung werden wir als nächstes angehen.“ Dennoch ist er überzeugt: „Die vorgestellte Methode ist ein großer Schritt nach vorne. Sie ebnet nicht nur den Weg für neue Benutzerschnittstellen, die Blickkontakt automatisch erkennen und auf diesen reagieren, sondern auch für Blickkontaktmessungen in alltäglichen Situationen, wie beispielsweise Außenwerbung, die bisher unmöglich waren.“

Weitere Informationen:

[1] Xucong Zhang, Yusuke Sugano and Andreas Bulling. Everyday Eye Contact Detection Using Unsupervised Gaze Target Discovery. Proc. ACM UIST 2017.
https://perceptual.mpi-inf.mpg.de/files/2017/05/zhang17_uist.pdf

[2] Xucong Zhang, Yusuke Sugano, Mario Fritz and Andreas Bulling. Appearance-Based Gaze Estimation in the Wild. Proc. IEEE CVPR 2015, 4511-4520.
https://perceptual.mpi-inf.mpg.de/files/2015/04/zhang_CVPR15.pdf

[3] Xucong Zhang, Yusuke Sugano, Mario Fritz and Andreas Bulling. It’s Written All Over Your Face: Full-Face Appearance-Based Gaze Estimation. Proc. IEEE CVPRW 2017.
https://perceptual.mpi-inf.mpg.de/files/2017/05/zhang_cvprw2017.pdf

GRID LIST
Tb W190 H80 Crop Int C7ec4121533b0efd43b60d6b621b8f97

MapR Update mit AI- und Analyse-Unterstützung

Das Major-Plattform-Update von MapR umfasst wichtige Innovationen, welche die Data Fabric…
Tb W190 H80 Crop Int Fda2273b8197dcd0b3a63df08c93c2b1

Etikettensoftware: Für jeden Zweck das richtige Produkt

Etiketten sind in Handel und Logistik unersetzlich. Sie ermöglichen die eindeutige…
Tb W190 H80 Crop Int Edfb0446c4d7b02ec6e9e4f9acaf3aad

Neues Release von iFinder5 elastic

IntraFind präsentiert die Version 5.2 von iFinder5 elastic. Die zentrale Neuerung der…
Tb W190 H80 Crop Int 9b4731a254f5866959e73e601ec536d6

objectiF RPM 4.3: Framework für digitale Transformation

microTOOL hat die Version 4.3 der Application Lifecycle Management Software objectiF RPM…
Tb W190 H80 Crop Int 9cc0f78c8e26d024ae4e442e61f01e6b

ALM Software objectiF RPM erscheint in Version 4.3

MicroTOOL GmbH veröffentlicht die Version 4.3 von objectiF RPM, einer Software für das…
Tb W190 H80 Crop Int A6d123785255a923989fd0bca72d7744

Neue Version der ISMS-Software INDITOR ISO in den Startlöchern

Die neuen Features der ISMS-Software INDITOR ISO, von Contechnet, liefern ein…
Smarte News aus der IT-Welt

IT Newsletter


Hier unsere Newsletter bestellen:

 IT-Management

 IT-Security