Mit Multi-View Video-Streaming im Krimi um die Ecke schauen | Newsflash CeBIT 2017

Mit der heutigen Übertragungstechnologie ist weitaus mehr möglich, als im heimischen Wohnzimmer ankommt. Beim „Multi-View Video-Streaming“ etwa können sich Anwender Szenen aus verschiedenen Perspektiven anschauen. 

Die Anwendungsgebiete reichen von der Unterhaltungselektronik, über Computerspiele und virtuelle Welten bis hin zu lebensechten Videokonferenzen und autonomen Fahren. Bisher existierte jedoch kein funktionierendes Gesamtsystem für diese Technologie. Informatiker der Universität des Saarlandes stellen dieses nun auf der Computermesse Cebit vor.

Anzeige

Durch eine verbesserte Kameratechnologie kann heute eine Szene simultan von mehreren Kameras aus verschiedenen Perspektiven aufgenommen werden. Das eröffnet neue Anwendungsgebiete, insbesondere im heimischen Wohnzimmer: „Wenn im Fernseh-Krimi plötzlich der mutmaßliche Täter in einem Nebenzimmer spricht und nicht sichtbar wird, könnte der Zuschauer mit der neuen Technologie die Perspektive ändern und um die Ecke schauen“, erklärt Tobias Lange, Doktorand an der Universität des Saarlandes.

Zusammen mit Thorsten Herfet, Professor für Nachrichtentechnik an der Saar-Uni, erforscht Tobias Lange am dortigen Intel Visual Computing Institute das sogenannte Multi-View Video-Streaming. Das ist eine Technologie, deren Komponenten für sich zwar alle funktionieren, jedoch noch nicht in einem Gesamtsystem. Das wollen die beiden Informatiker der Saar-Universität und ihre Kollegen ändern. Denn die Anwendungsmöglichkeiten des Multi-View Video-Streamings sind immens. Nicht nur in der Unterhaltungsindustrie, auch die Arbeitswelt könnte Multi-View Video-Streaming mit lebensechten Videokonferenzen revolutionieren. „Auch wenn Autos autonom in der Kolonne fahren, könnte diese Technologie nützlich sein. Wie sonst sollte das Fahrzeug hinten Zugriff auf die Bilder des Wagens ganz vorne bekommen?“, so Lange.

Um diese Vision umzusetzen, sind jedoch noch einige Herausforderungen zu lösen. Größtes Manko: Die Netzwerktechnologie hat sich nicht im gleichen Maße weiterentwickelt wie die Aufnahmetechnik. Denn das Bildmaterial muss nicht nur von mehreren Kameras aufgezeichnet werden, sondern auch zu einer Sammlung von Datenpaketen codiert und im Übertragungspuffer des Servers gespeichert werden. Von dort aus finden die Bilder ihren Weg über das Internet zum Rechner des jeweiligen Betrachters. Dort angekommen, gilt es die Daten rechtzeitig auszupacken und so abzuspielen, dass sich der Zuschauer seine Perspektive aussuchen kann und auf gar keinen Fall irgendwelche Bildfehler bemerkt. „Die Datenrate ist abstrus. Schon jetzt ist eine so hohe Bandbreite erforderlich, dass die meisten der heutigen Internetanschlüsse damit überfordert wären“, erklärt Lange. Auch die Berechnungen seien sehr komplex.

Die Saarbrücker Informatiker gehen diese Herausforderung an, indem sie den kompletten Produktionsweg punktuell verbessern. Beim Streaming minimieren sie mit speziellen Rechenverfahren die Verzögerung so sehr, dass sie kaum noch wahrnehmbar ist. Um das Codieren und Decodieren in einer akzeptablen Zeitspanne zu schaffen, setzen sie auf einen verteilten Ansatz. Jede Kamera benutzt dazu einen eigenen Mini-Computer, der unmittelbar hinter ihr angebracht ist. Auch für das Berechnen der Bilder haben die Forscher ein neues Verfahren entwickelt damit diese aus verschiedenen Perspektiven betrachtet werden können, und zwar nahezu in Echtzeit.

Mit diesen punktuellen Verbesserungen haben sie ein Gesamtsystem geschaffen, das funktioniert. „Bisher gibt es nur wenige Lösungsansätze“, erklärt Lange. Daher ist er skeptisch, ob dies ausreicht, um die Technologie salonfähig zu machen. „Vielleicht übernimmt das ja unser Forschungspartner Intel. Dort schaut man sich die Ergebnisse in ihrer Gesamtheit an“, sagt Lange. 

CeBIT in Halle 6, Stand E28

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.