Anzeige

Anzeige

VERANSTALTUNGEN

CloudFest 2019
23.03.19 - 29.03.19
In Europa-Park, Rust

Blockchain Summit
26.03.19 - 26.03.19
In Frankfurt, Kap Europa

ELO Solution Day München
27.03.19 - 27.03.19
In Messe München

Hannover Messe 2019
01.04.19 - 05.04.19
In Hannover

SMX München
02.04.19 - 03.04.19
In ICM – Internationales Congress Center München

Anzeige

Anzeige

Microsoft hat drei neue Cognitive Services für die Integration von KI-Technologien in Anwendungen von Drittanbietern angekündigt.

Der ab sofort verfügbare Custom Speech Service, erkennt Sprache in unterschiedlich lauten Umgebungen sowie dialektisch, mundartlich oder fachlich gefärbte Formulierungen. Der Content Moderator erlaubt es, Texte, Bilder oder Videos nach unerwünschtem Material zu durchsuchen und etwa Gewaltszenen oder hetzerische Sprache herauszufiltern. Die Bing Speech API verwandelt Audiomaterial in Text, versteht den Inhalt solcher Texte und kann Texte auch in gesprochene Sprache (zurück-)verwandeln. Content Moderator und Bing Speech API werden ab März 2017 verfügbar sein. 

Die Microsoft Cognitive Services sind 25 Dienste, die die Integration von Sprach-, visueller oder Stimmungserkennung sowie Sprachverständnis in Apps ermöglichen. Über REST APIs können Entwickler Anwendungen von Drittanbietern aller Unternehmensgrößen und Branchen mit künstlicher Intelligenz anreichern.

Virtual-Reality-Unterhaltungen führen

Die Integration einer funktionierenden Sprachsteuerung erlaubt es zum Beispiel in Virtual-Reality-Spielen, dem Spieler die volle Kontrolle über den Erzählstrang einer Geschichte zu geben. Wie in Starship Commander von Human Interact: Das Spiel nutzt Microsoft Cognitive Services für die (Sprach-)Steuerung von Raumschiffen, die auch in Lichtgeschwindigkeit noch auf ihre Kapitäne hören, anstatt eine vorprogrammierte Geschichte abzuspielen. 

Bei Starship Commander kommt auch der Language Understanding Intelligent Service zum Einsatz, um zu verstehen, mit welcher Absicht Spieler bestimmte Aussagen treffen. Ein „Raus hier!“ könnte sowohl die Aufforderung an den Maschinenraum sein, Vollgas zu geben, als auch der Befehl an jemanden, den Raum zu verlassen. Der Language Understanding Intelligent Service, derzeit in einer Public Preview verfügbar, erlaubt Entwicklern das Trainieren von Sprachmodellen mit unterschiedlichen Bedeutungen von Sprache. Auch dieser Service arbeitet auf der Basis jahrzehntelanger Forschungen, bei denen es darum geht, Dienste mit einer begrenzten Menge von Daten zu trainieren. Bei Starship Commander funktioniert das offensichtlich gut – so gut, dass sich CEO Alexander Mejia fast geschockt darüber zeigt: Es sei ein wenig angsteinflößend, wie gut das Spiel Sätze verstehe, die es nie zuvor trainiert habe, so Mejia: „Das ist Künstliche Intelligenz!“

Kundenindividuelle Sprachmodelle

Moderne Spracherkennung ist abhängig von statistischen Modellen, die maschinelles Lernen (Machine Learning) und die Skalierbarkeit der Cloud nutzen, um aus einer großen Menge von Daten akkurate Übersetzungen gesprochener Wörter zu produzieren. Über die Cognitive Services ist es möglich, akustische Modelle zu bauen, die aus kurzen Audioschnipseln Phoneme oder Toneinheiten in einer gegebenen Sprache erkennen. In Kombination mit den Phonemen in der unmittelbaren Nachbarschaft lassen sich gesprochene Wörter sicher erkennen. Die Vorhersage wird von einem speziellen Wörterbuch unterstützt, das alle Wörter der Zielsprache auf Phoneme-Ebene enthält. Um ähnlich klingende Wörter im Kontext zu bewerten, ziehen akustische Modelle auch kontextuelle Wahrscheinlichkeiten hinzu. So ist das Wort „Tor“ im Fußball wahrscheinlicher als „Treffer“ zu verstehen, denn als „Narr“.

McDonald’s setzt die Spracherkennung ein, um die einen möglichst effizienten, reibungslosen Ablauf der Drive-ins zu ermöglichen. Das Akustikmodell der Microsoft Speech Recognition API beruht auf einem neuronalen Netzwerk, das wiederum Theorien des menschlichen Spracherwerbs nutzt und mit tausenden Stunden Audiodateien aus der Cloud trainiert wurde. Dieser Spracherkennung gelang im Oktober 2016 der Durchbruch: Erstmals war die Engine in der Lage, Wörter einer seit 20 Jahren als Benchmark für Spracherkennung verwendeten Unterhaltung genauso gut zu erkennen wie ein Mensch.

Allerdings funktioniert das Modell nicht automatisch in unterschiedlichen, zum Beispiel lauten Umgebungen. Genau hier kommen die Custom Speech Services zum Tragen, die das Anpassen der Modelle an typische Umgebungen oder Sprachgewohnheiten erlaubt: Ob ein Geräusch ein Wort oder eine Hydraulikpresse ist, mag für Menschen einfach zu entscheiden sein. Maschinen müssen diesen Unterschied erst lernen – um das künftig dann zuverlässig zu erkennen. 

GRID LIST
Tb W190 H80 Crop Int B01e48c2fd08b45f534604484c7a9179

BSI führt IT-Grundschutz-Testat nach Basis-Absicherung ein

Die Basis-Absicherung der eigenen IT-Systeme ist der erste wichtige Schritt zu einer…
Fake News

Apple investiert in Kampf gegen Fake News

Technologieriese Apple unterstützt im Kampf gegen Fake News im Internet drei…
Mann Lupe Code

E-Spionagegruppe OceanLotus greift gezielt Regierungsbehörden an

ESET-Forscher haben die neuesten Methoden der Spionagegruppe OceanLotus (auch bekannt als…
EU-Urheberrechtsrechtsreform

Upload-Filter sind pluralistischer Demokratie unwürdig

Die EU-Urheberrechtsrechtsreform steht kurz vor dem Abschluss. Am 26. März 2019 soll dazu…
Tb W190 H80 Crop Int Bd9a82a68740c7481f84e1dfa3bc5f9b

Fertigung mit Industrie 4.0

Bei Rittal entwickelt sich Industrie 4.0 in der Praxis: Der Systemanbieter für…
Sprachbefehl

Jeder Dritte würde per Sprachbefehl Geld überweisen

Eine Banküberweisung auf Zuruf – digitale Sprachassistenten machen es möglich. Und viele…