SAP SECURITY 2017
22.11.17 - 22.11.17
In Walldorf, Leonardo Hotel

Cloud Expo Europe
28.11.17 - 29.11.17
In Frankfurt

Data Centre World
28.11.17 - 29.11.17
In Frankfurt

IT-Tage 2017
11.12.17 - 14.12.17
In Frankfurt, Messe Kap Europa

Net.Law.S 2018
20.02.18 - 21.02.18
In Nürnberg, Messezentrum

Bilder und Videos nehmen gigantischen Speicherplatz in Beschlag, das weltweit erzeugte Datenvolumen wächst rasant von Jahr zu Jahr. Um diese Datenmengen platzsparend ablegen zu können, forschen Wissenschaftler an immer besseren Kompressionsverfahren. 

Einer davon ist der Saarbrücker Mathematiker und Informatiker Joachim Weickert, der für eine außergewöhnliche Idee nun mit dem höchsten und angesehensten Forschungspreis der Europäischen Union, dem ERC Advanced Grant, gefördert wird. Sein Verfahren ist an die Natur angelehnt: Es folgt denselben Regeln wie die Ausbreitung von Wärme. Joachim Weickert wurde 2010 bereits mit dem Leibniz-Preis der Deutschen Forschungsgemeinschaft ausgezeichnet. Der Professor erhält nun von 2017 bis 2022 bis zu 2,5 Millionen Euro, um seine Forschung an neuen Kompressionsverfahren voranzutreiben.

Rund achteinhalb Milliarden Terabyte: Diese digitale Datenmenge soll laut Portal statista.com im Jahr 2015 in einem einzigen Jahr weltweit angefallen sein. Bis 2020 soll sich das jährliche Datenvolumen auf gigantische 40 Milliarden Terabyte (oder 40.000 Exabyte, 40 Zettabyte) annähernd verfünffachen. Einen großen Anteil daran haben Online-Videodienste und immer höher auflösende Bilder.

Das Fassungsvermögen der Speichermedien wächst zwar ebenso, kann mit dieser rasanten Datenflut allerdings nicht ohne weiteres mithalten. Diese Daten müssen daher mit Rechenvorschriften für den Computer, den Algorithmen, komprimiert werden, um sie effizient speichern zu können. Bisher gängige Kompressionsverfahren wie JPEG (für Fotos) oder MPEG4 (für Videos) verringern das Datenvolumen von Bildern und Videos, indem sie visuell weniger relevante Informationen einfach ungenauer speichern oder ganz eliminieren. Dies geschieht bislang im Frequenzbereich: Ähnlich wie ein Audiosignal aus Frequenzen besteht, kann man ein Bild als zweidimensionales Signal auffassen, das in Frequenzen zerlegbar ist. Das Ergebnis der Kompression ist für die Nutzer am Ende kaum vom Original zu unterscheiden. Diese Verfahren haben allerdings ihre Grenzen. Simpel formuliert: Komprimiert man zu stark, indem man zu viel Information aus dem Originalbild ignoriert, sieht man den Unterschied letzten Endes doch. Das Bild oder der Film werden „pixelig“, der Verlust von Information sichtbar.

Joachim Weickert, Professor für Mathematik und Informatik an der Universität des Saarlandes, geht hingegen einen ganz anderen Weg. Er arbeitet mit seiner Forschungsgruppe in Saarbrücken an einem Verfahren, mit dem nur noch ein paar besonders wichtige Pixel gespeichert werden müssen, um ein Bild in hoher Qualität rekonstruieren zu können. Hierzu reichen ihm bereits wenige Prozent der Bildpunkte. Er hat gezeigt, dass derartige Verfahren insbesondere bei hohen Kompressionsraten das Potenzial haben, etablierte Standards wie JPEG zu schlagen.

Den Trick, auf dem sein Verfahren beruht, hat sich der Mathematiker und Informatiker in der Natur abgeschaut. Mit Varianten der Wärmeleitungsgleichung, mit der Naturwissenschaftler zum Beispiel die Wärmeausbreitung in Materialien berechnen können, kann er ein Bild in hoher Genauigkeit rekonstruieren. Im Prinzip ist das schnell erklärt: „Die abgespeicherten Pixel sind dabei wie kleine ‚Klimageräte‘. Je heller ein Bildpunkt ist, desto höher ist die eingestellte Temperatur am Klimagerät. So wie sich die Wärme im Raum ausbreitet, so breitet sich die Pixelinformation in die Nachbarschaft aus, wo nichts abgespeichert wurde“, erklärt Joachim Weickert. So lassen sich, ausgehend von ein paar wenigen abgespeicherten Pixeln, die fehlenden Daten visuell verblüffend gut rekonstruieren. Erste Grundlagen dafür hat Joachim Weickert mit dem Geld aus seinem Leibniz-Preis in den vergangenen sieben Jahren bereits legen können. Der nun eingeworbene ERC Advanced Grant honoriert diese Erfolge. Er schließt mit bis zu 2,5 Millionen Euro für fünf Jahre nahtlos an den Leibniz-Preis an und erlaubt ihm, gezielt an diesen vielversprechenden Ideen weiter zu forschen, damit sie in zukünftige Kodierungsstandards einfließen können. Dazu sind allerdings noch viele schwierige Probleme zu meistern.

„Eine Herausforderung besteht beispielsweise darin, herauszufinden, welche Pixel man genau auswählen muss, um das beste Ergebnis zu erhalten“, erläutert der Wissenschaftler die Aufgabe für die kommenden Jahre. „Intuitiv ist klar: Wir sollten die abzuspeichernden Pixel in der Nähe von Kanten auswählen, also dort, wo sich viel ändert, etwa am Rand von Gesichtern, die sich vor einem Hintergrund abheben. Dann können wir das Original besser rekonstruieren.“ Aber welche Pixel das genau sind, wissen die Forscher nur in einfach gelagerten Spezialfällen. Könnten sie dies herausfinden, wäre das ein immenser Qualitätsgewinn.

Hier kommt die Mathematik ins Spiel. Wie schwierig diese Aufgabe ist, verdeutlicht folgendes Beispiel, das Joachim Weickert anführt: „Lottospielen ist ja schon recht hoffnungslos. Die Wahrscheinlichkeit, aus 49 Zahlen die sechs richtigen vorherzusagen, ist sehr gering. Sie liegt bei etwa 1:14 Millionen. Möchte ich nun aus einem Bild mit 8.000.000 Pixeln die 400.000 besten heraussuchen, um später ein möglichst ideale Rekonstruktion des Originals zu erhalten, liegt die Wahrscheinlichkeit bei 1 zu einer Zahl mit 689.709 Stellen.“ Anders gesagt: Es ist nicht möglich, ohne Hilfe von guten Theorien die idealen Pixel fürs Abspeichern zu ermitteln und so eine Kombination mit möglichst verlustarmer Wiedergabe zu erreichen.

Ein anderes Problem besteht im hohen Rechenaufwand. Computersimulationen der Wärmeleitungsgleichung sind zunächst einmal sehr viel aufwändiger als frequenzbasierte Verfahren wie JPEG. Hier müssen die Forscher noch erhebliche Fortschritte machen, indem sie neue, wesentlich effizientere Algorithmen entwickeln, die beispielsweise auch die Möglichkeiten moderner Grafikprozessoren voll ausschöpfen.

Weickerts Ziel ist ambitioniert: „In fünf Jahren wollen wir 4k-Videos mit unseren Verfahren komprimieren können, die dann in Echtzeit dekomprimiert werden können. Hierzu müssen unsere Algorithmen noch um den Faktor 100 schneller werden.“ gibt er vor. Er ist optimistisch. „Vor zehn Jahren haben renommierte Kollegen gesagt: ‚Vergiss es, das schafft ihr nie‘. Dann kam der Leibniz-Preis. Und nun der ERC Grant.“ Der Erfolg gibt ihm also offenbar Recht.  

www.mia.uni-saarland.de

GRID LIST
Datensicherheit

Kleine Firmen versagen beim Datenschutz

Die Firma Shred-it warnt, dass kleine und mittlere Unternehmen in Großbritannien für eine…
Mitarbeiter mit mobilen Geräten

Digitalisierung: Kaum Weiterbildung in Deutschland

Sieben von zehn Deutschen haben im Job keine Zeit für Weiterbildungen in Sachen…
Deutschland Flagge Security

BSI Lagebericht zur IT-Sicherheit in Deutschland 2017

Vor wenigen Tagen hat das Bundesamt für Sicherheit in der Informationstechnik (BSI)…
Digital Banking

Banken der Zukunft sind digital

Schärfere Regulatorik, höhere Ansprüche der Kunden, digitale Tools: Die Banken-Branche…
Trojaner

Banking-Trojaner Terdot kehrt zurück

Der Banking-Trojaner Terdot, der ursprünglich auf Online-Banking und Zahlungsvorgänge…
HackZurich

Studenten der Hochschule Karlsruhe gewinnen „HackZurich“

Der internationale Programmierwettbewerb „HackZurich“ wird seit vier Jahren von…
Frische IT-News gefällig?
IT Newsletter Hier bestellen:

Newsletter IT-Management
Strategien verfeinert mit profunden Beiträgen und frischen Analysen

Newsletter IT-Security
Pikante Fachartikel gewürzt mit Shortnews in Whitepaper-Bouquet