Forscher warnen vor blinden Vertrauen

KI ist nur so gut wie ihr vorheriges Training

KI, Trainingslager

Künstliche Intelligenz durchdringt zunehmend unseren Alltag – ob bei Bewerbungsverfahren, Kreditentscheidungen oder biometrischer Gesichtserkennung.

Doch Forschende der Eidgenössischen Technischen Hochschule Lausanne (EPFL) mahnen zur Vorsicht: Generative KI (Gen KI) ist nur so objektiv und verlässlich wie die Daten, mit denen sie trainiert wurde.

Anzeige

Verzerrte Daten, verzerrte Ergebnisse

Die Qualität von KI-Modellen hängt maßgeblich von der Beschaffenheit der Trainingsdaten ab. Werden diese Daten von Vorurteilen oder Falschinformationen geprägt, übernehmen KI-Systeme diese Verzerrungen und geben sie in ihren Ergebnissen weiter. Das birgt Risiken – besonders, wenn solche Systeme in sensiblen Bereichen wie der Personalauswahl oder bei Kreditvergaben eingesetzt werden.

Zwar tragen Nutzerinnen und Nutzer Verantwortung für den korrekten Einsatz von KI, doch allein auf individuelle Sorgfalt zu setzen, greift laut den EPFL-Forschern zu kurz. Es brauche zusätzlich technische und rechtliche Schutzmechanismen – ähnlich wie bei gefährlichen Alltagsprodukten wie Waffen oder Medikamenten. Sicherheitsvorkehrungen, Regulierungen und ein Bewusstsein für die Grenzen der Technologie seien essenziell.

Die Rolle des Gesetzgebers

Einige Länder und Institutionen haben auf die zunehmende Bedeutung von KI bereits reagiert. Der AI Act der Europäischen Union stellt einen ersten Versuch dar, verbindliche Regeln für den Einsatz von KI-Systemen zu schaffen. Dabei stehen ethische Prinzipien und der Schutz vor Missbrauch im Vordergrund. Doch die Umsetzung in der Praxis ist kompliziert – insbesondere, wenn tief verankerte gesellschaftliche Vorurteile in die Systeme einsickern.

Anzeige

Vorurteile sind kein rein technisches Problem. Sie entspringen menschlichen Denk- und Verhaltensmustern und übertragen sich unweigerlich auch auf von Menschen kuratierte Daten. Werden diese unreflektiert in KI-Systeme eingespeist, können sie sich durch automatisierte Prozesse potenzieren – mit potenziell weitreichenden Folgen. Ein bewusster und kritischer Umgang mit der Technologie ist deshalb unerlässlich.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Aufklärung und Regulierung als zentrale Pfeiler

Um die Gefahren unreflektierter KI-Nutzung einzudämmen, fordern die EPFL-Wissenschaftler klar definierte Standards, Zertifizierungsprozesse und umfassende Aufklärung. Nur so könne ein Mindestmaß an Qualität und Transparenz sichergestellt und das Vertrauen der Öffentlichkeit gestärkt werden.

Pauline Dornig

Pauline

Dornig

Online-Redakteurin

IT Verlag GmbH

Pauline Dornig verstärkt seit Mai 2020 das Team des IT Verlags als Online-Redakteurin. (pd)
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.