Sprachassistenten: Automatisches Erkennen von Emotionen

SmileysDas automatische Erkennen von gesprochenem Text hat seit Markteinführung von Sprachassistenten wie Apples „SIRI“ die Interaktion mit Computern revolutioniert. Doch Spracherkennung ist nur der erste Schritt zur natürlichen Kommunikation.

Das vom international renommierten Affective Computing Experten Prof. Björn Schuller (Universität Passau und Imperial College London) gegründete Unternehmen audeering GmbH entwickelt innovative und führende Methoden zur Erkennung von Informationen jenseits des gesprochenen Textes, wie Emotion, Persönlichkeit, Alter, Geschlecht oder Interesse.

Anzeige

“Wie” wurde etwas gesprochen

„Eine intelligente Maschine benötigt ein hohes Maß an perzeptiven Fähigkeiten“, beginnt Prof. Schuller seinen Vortrag auf dem „Summer Davos“ Jahrestreffen des Weltwirtschaftsforums in Dalian, China. Sein 2012 gegründetes Unternehmen audeering GmbH hat sich dabei auf die maschinelle Wahrnehmung von Informationen aus der menschlichen Sprache spezialisiert. Hierbei steht nicht der gesprochene Text im Vordergrund, sondern der Zustand des Sprechers: Von einem intelligenten Sprachassistenten wird erwartet, dass er nicht nur erkennt was gesprochen wurde, sondern auch wie es gesprochen wurde. Dies ist der Schlüssel zur modernen und weiterführenden Mensch-­‐Maschine-­‐Kommunikation. Das Unternehmen hat innovative Verfahren und Technologien entwickelt, die es erlauben, ein Sprachsignal hinsichtlich verschiedenster Charakteristiken wie Emotion, Persönlichkeit, oder Alter des Sprechers zu analysieren. Selbst die Erkennung von Trunkenheit, Depression, oder Interesse ist möglich. Mittels des eigenen und mit Awards ausgezeichneten Toolkits „openSMILE“ sowie Deep Learning Methoden werden robuste Ergebnisse mit Tausenden von Features erzielt. 

Anwendungsbeispiele

Die angewendete Methodik zur Extraktion von Sprachmerkmalen resultiert aus langjähriger und international anerkannter Forschungsarbeit der Gründer von audeering an der Technischen Universität München und wird kontinuierlich weiterentwickelt. Zu den Anwendungsbeispielen zählen neben Dialogsystemen auch Sprachdatenanalyse in Callcentern, klinische Stimmanalysen (beispielsweise zur Erkennung von Depression/BurnOut), Kundenzufriedenheitsstudien und Computerspiele. Ähnliche Methoden werden auch im Bereich der Musiksignalverarbeitung angewendet: Mittels modernster Verfahren des maschinellen Lernens ist es möglich, automatisiert Taktart, Genre, Tanzstil, Tonart, Akkorde und Tempo zu erkennen und beispielsweise für DJ-­Applikationen zu nutzen.

Aktuell entwickelt audeering in Zusammenarbeit mit dem weltbekannten Emotionsforscher Prof. Klaus Scherer (Universität Genf und LMU München) einen neuartigen Ansatz zur automatischen Emotionserkennung, der es erlaubt, feine Abstufungen von Sprecherzuständen wie Zweifel, Bewunderung oder Faszination zu erkennen. Basierend auf Erkenntnissen im Bereich der Stimm-Physiologie und Psychologie soll hochgenaue, sprachunabhängige Emotionserkennung ermöglicht werden – ohne dabei auf große Sprachdatensammlungen zum „Anlernen“ des Erkenners angewiesen zu sein.

„Dieser Ansatz soll vor allem im Bereich Konsumforschung aber auch Health & Wellbeing verbesserte Methoden für die Erkennung und gegebenenfalls auch Therapie ermöglichen.“, sagt Geschäftsführer Prof. Björn Schuller. Dieses Vorhaben wird aufgrund seiner Wichtigkeit seit 2015 mit einem Proof-of-Concept Grant seitens der Europäischen Union gefördert.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.