Meta führt auf Instagram ein neues Label für „KI-Creator“ ein. Die freiwillige Kennzeichnung soll Profile markieren, die KI-generierte Inhalte veröffentlichen.
Meta hat einen neuen Testlauf auf der Plattform Instagram gestartet, um die Transparenz im Umgang mit künstlicher Intelligenz zu erhöhen. Im Zentrum steht ein neues Label auf Account-Ebene, mit dem sich Ersteller von Inhalten selbst als „KI-Creator“ identifizieren können. Diese Maßnahme ist eine Reaktion auf die wachsende Flut an synthetischen Medien und die zunehmende Schwierigkeit für Nutzer, zwischen menschlich erschaffenen und maschinell generierten Inhalten zu unterscheiden.
Sichtbarkeit der neuen Kennzeichnung im Profil und Feed
Die neue Kennzeichnung ist so konzipiert, dass sie für den Nutzer an mehreren Stellen innerhalb der App prominent sichtbar wird. Zum einen erscheint das Label direkt im Profil des jeweiligen Creators unterhalb der Biografie. Zum anderen wird der Hinweis auch direkt neben Beiträgen und Reels eingeblendet, wenn diese im globalen Feed oder im Entdecken-Bereich auftauchen.
Der Text des Labels ist eindeutig formuliert: „Dieses Profil postet Inhalte, die mit KI generiert oder modifiziert wurden.“ Damit geht Meta über die bisherigen, eher vagen Hinweise hinaus. Während herkömmliche „KI-Info“-Badges oft nur darauf hinweisen, dass ein einzelner Beitrag „möglicherweise“ KI-Elemente enthält, legt das neue Label eine generelle Arbeitsweise des Accounts offen. Laut Meta soll dies die Messlatte für Transparenz auf der Plattform ein Stück höher legen.
Eindeutige Sprache gegenüber bisherigen KI-Badges
Ein wesentlicher Unterschied zu den bereits existierenden Kennzeichnungs-Systemen von Meta liegt in der gewählten Ausdrucksweise. Bisherige Markierungen basierten oft auf Metadaten-Scans, die automatisch ein Badge mit dem Text „KI-Info“ erzeugten. Diese automatischen Hinweise sind jedoch häufig unpräzise und nutzen Formulierungen wie „may have been created with AI“ (könnte mit KI erstellt worden sein).
Das neue „KI-Creator“-Label hingegen lässt weniger Raum für Interpretationen. Durch die explizite Bestätigung, dass Inhalte generiert oder modifiziert wurden, erhalten Follower eine klarere Orientierung. Meta verfolgt damit das Ziel, eine verlässlichere Informationsbasis zu schaffen, insbesondere da KI-Werkzeuge zur Bild- und Videobearbeitung mittlerweile zum Standard-Repertoire vieler digitaler Künstler gehören.
Freiwilligkeit als zentrales Merkmal des Testlaufs
Ein entscheidender Aspekt der neuen Funktion ist ihre Freiwilligkeit. Creator können selbst entscheiden, ob sie das Label in ihren Kontoeinstellungen aktivieren oder nicht. Meta begründet diesen „leichten Touch“ damit, dass man das Vertrauen zwischen Creator und Publikum stärken wolle, indem man den Erstellern die Kontrolle über ihre eigene Deklaration überlässt.
In einer In-App-Nachricht ermutigt Meta Ersteller von KI-Inhalten zur Nutzung des Features: „Dieses Label schafft Vertrauen, indem es deinem Publikum hilft zu verstehen, was es auf Instagram sieht.“ Kritiker und Beobachter weisen jedoch darauf hin, dass die Freiwilligkeit gleichzeitig eine Schwachstelle darstellt. Nutzer werden weiterhin auf zahlreiche KI-generierte Inhalte stoßen, die entweder gar nicht oder nur mit den weniger präzisen, automatischen Badges versehen sind.
Kritik des Oversight Boards an der KI-Erkennung
Der Vorstoß von Meta erfolgt vor dem Hintergrund anhaltender Kritik durch das eigene Oversight Board (Aufsichtsrat). Das Gremium hatte bereits in der Vergangenheit bemängelt, dass die Offenlegung von KI-Inhalten auf den Plattformen von Meta oft willkürlich und lückenhaft erfolgt. Das Hauptproblem liegt in der technischen Unfähigkeit, alle KI-generierten Inhalte zuverlässig und automatisch zu erkennen, die über die Apps verbreitet werden.
Das Oversight Board hatte Empfehlungen ausgesprochen, um die Erkennungsmethoden zu verbessern und die Kennzeichnungspflichten zu verschärfen. Meta hat auf diese spezifischen Empfehlungen bisher nicht mit einer verpflichtenden Einführung reagiert, sondern setzt mit dem „KI-Creator“-Label stattdessen auf eine verstärkte Eigenverantwortung der Nutzer. Solange die automatische Detektion nicht lückenlos funktioniert, bleibt die Plattform auf die Mitarbeit der Ersteller angewiesen.