Deep Learning 2.0: Automatisiertes Machine Learning ermöglicht präzisere Algorithmen

Der Informatiker Prof. Dr. Frank Hutter vom Institut für Informatik der Universität Freiburg erhält für seine Forschung zu Deep Learning einen mit zwei Millionen Euro dotierten Consolidator Grant des Europäischen Forschungsrats (ERC).

Hutter und sein Team entwickeln die nächste Generation von Deep Learning Verfahren, welche neben einer höheren Genauigkeit auch die Vertrauenswürdigkeit von Deep Learning stärken sollen. Die Deep Learning 2.0 Verfahren sollen auch von fachfremden Personen einfach nutzbar sein. Der ERC Grant gehört zu den renommiertesten Preisen für europäische Wissenschaftlerinnen und Wissenschaftler. Die Forschenden werden fünf Jahre lang gefördert.

Anzeige

Deep Learning ist ein Teilbereich des Machine Learning (ML) und nutzt neuronale Netze sowie große Datenmengen. Deep Learning Modelle sind in der Lage, von sich aus zu lernen. Dazu verknüpfen die Systeme das Erlernte immer wieder mit neuen Inhalten. Zum Einsatz kommt Deep Learning überall dort, wo große Datenmengen nach Mustern und Trends untersucht werden, beispielweise im Rahmen von Gesichts- oder Spracherkennung. Moderne Deep Learning Verfahren können aber inzwischen auch für kleine Datenmengen gute Ergebnisse liefern.

Mithilfe des ERC Grants wird Hutter das Projekt “DeepLearning 2.0: Meta-Learning Qualitatively New Components” umsetzen, in dem er eine neue Generation von Deep Learning Verfahren entwickelt. „Deep Learning 2.0 Algorithmen sollen nicht nur präziser rechnen, sondern auch bessere Entscheidungen treffen, beispielsweise im Hinblick auf Robustheit, algorithmische Fairness oder Erklärbarkeit“, erklärt Hutter.

Dazu kombinieren Hutter und sein Team ihr Forschungsfeld Automated machine learning (AutoML) mit den bisherigen Deep Learning Verfahren. Deep Learning 2.0 Algorithmen sollen mithilfe von AutoML auf Deep Learning 1.0 Verfahren aufsetzen und diese automatisch verbessern. Die Arbeitsgruppe entwickelt dafür effiziente Lernmethoden auf der Metaebene, um bisherige handgefertigte Deep Learning Verfahren durch neuartige, automatisch angepasste Verfahren zu ersetzen, die direkt auf die Ziele der Nutzer*innen abgestimmt sind.

„Das Meta-Lernen kann das gesamte Deep Learning Verfahren optimieren. Mit unserem Vorschlag wollen wir die Grundlage für die nächste Generation des tiefen Lernens schaffen, die eine höhere Genauigkeit und vertrauenswürdigere Ergebnisse verspricht“, sagt Hutter. „Deep Learning 2.0 wird dann auch die verschiedenen Anforderungen berücksichtigen können, wie beispielsweise Hardwareanforderungen, den ökologischen Fußabdruck oder die Trainingskosten.“

Hutter gilt weltweit als einer der Mitbegründer der Forschung zum Automatisierten Maschinellen Lernen (AutoML). „In unserer Arbeit an AutoML geht es vor allem darum, das Maschinelle Lernen zu demokratisieren und diese Schlüsseltechnologie auch für Nichtexpertinnen und Nichtexperten über eine Open-Source-Software anwendbar zu machen, zum Beispiel in kleinen und mittelgroßen Unternehmen“, sagt Hutter. Er hat für seine Forschung bereits einen ERC Starting Grant und einen ERC Proof of Concept Grant des Europäischen Forschungsrats eingeworben sowie ein Emmy Noether-Stipendium der Deutschen Forschungsgemeinschaft (DFG) erhalten.

Hutter leitet die Professur für Maschinelles Lernen an der Technischen Fakultät der Universität Freiburg und ist Leiter des Machine Learning Lab und der ELLIS Unit Freiburg. Er studierte an der TU Darmstadt und promovierte an der University of British Columbia/Kanada.

https://uni-freiburg.de/
 

Weitere Artikel

Jetzt die smarten News aus der IT-Welt abonnieren! 💌

Mit Klick auf den Button “Zum Newsletter anmelden” stimme ich der Datenschutzerklärung zu.