Generative KI verändert unser Arbeiten – aber auch unser Denken. Ohne kritischen Umgang mit den Ergebnissen droht eine Zukunft, in der Fehlinformationen, Verzerrungen und Einseitigkeit zur Norm werden.
Generative KI-Tools wie ChatGPT, Perplexity oder Claude galten lange als Meilensteine technologischen Fortschritts. Ihre Fähigkeit, menschlich wirkende Texte zu verfassen oder komplexe Fragen in Sekunden zu beantworten, wurde mit Begeisterung aufgenommen. Doch in jüngster Zeit mehren sich die Zweifel: Viele Nutzerinnen und Nutzer berichten, dass die Qualität der Antworten abnimmt – mal inhaltlich ungenau, mal oberflächlich oder gar falsch.
Auch etablierte Medien und Technikkanäle schlagen Alarm. Besonders in Berufsfeldern, in denen Menschen sich zunehmend auf die Empfehlungen und Antworten von KI stützen, kann das fatale Folgen haben. Wenn etwa Ärztinnen Diagnosen durch KI-Analysen unkritisch übernehmen oder Softwareentwickler fehlerhafte Code-Vorschläge implementieren, droht realer Schaden.
Die Münchner Kommunikationsagentur PR-COM, spezialisiert auf Hightech-Themen, warnt vor einem allzu sorglosen Umgang mit GenAI – und benennt vier zentrale Risiken, die jede und jeder kennen sollte.
1. Halluzinationen: Wenn sich KI Wissen einfach ausdenkt
Eine der größten Schwächen generativer KI ist ihre Tendenz zur sogenannten Halluzination: Wenn die Datenlage dünn ist, erfindet das System schlichtweg Informationen, um trotzdem eine plausible Antwort liefern zu können.
Das Gefährliche daran: Diese Erfindungen sind oft so überzeugend formuliert, dass sie leicht als Fakt missverstanden werden. Umso besorgniserregender ist es, dass laut einer Studie von PR-COM Research Lab nur rund ein Viertel der Nutzer in Deutschland KI-Antworten auf ihre Richtigkeit überprüft.
Was hilft: Jedes Ergebnis aus KI-Tools muss grundsätzlich als Vorschlag – nicht als Wahrheit – betrachtet werden. Kritisches Nachprüfen, etwa durch Abgleich mit Primärquellen oder Expert:innenmeinung, ist unverzichtbar.
2. Verzerrung durch Bias: Objektivität ist keine Garantie
Auch wenn Entwickler viel Energie in das “Training” ethischer KI stecken – vollständig frei von Vorurteilen sind die Systeme nicht. Bestimmte Weltanschauungen, politische Überzeugungen oder kulturelle Perspektiven können in die Antworten einfließen, manchmal subtil, manchmal deutlich.
Die Gefahr ist dabei nicht nur ideologischer Natur. Vor allem in sozialen oder juristischen Fragen kann ein verzerrter Output weitreichende Folgen haben.
Was hilft: Die Inhalte stets im gesellschaftlichen, rechtlichen und ethischen Kontext betrachten. Wer bewusst mitdenkt und unterschiedliche Quellen vergleicht, erkennt schneller, wo es hakt.
3. Die Spirale der Belanglosigkeit: Wenn KI sich selbst zitiert
Das Internet füllt sich zunehmend mit Inhalten, die von KI erstellt wurden – und dieselben Inhalte fließen wiederum ins Training neuer KI-Modelle ein. Das Ergebnis ist eine sich selbst verstärkende Feedbackschleife, in der Originalität und Vielfalt mehr und mehr verloren gehen.
Im schlimmsten Fall entstehen auf Dauer Inhalte, die nur noch auf früheren KI-Texten basieren – ohne menschliche Reflexion oder neue Erkenntnis. Der Mensch als kreative Quelle wird an den Rand gedrängt.
Was hilft: Bewusste Gegenbewegung. Echte, menschlich erstellte Inhalte sind ein wertvolles Gut. Wer originell denkt und schreibt, schafft Mehrwert – auch im Zeitalter der KI.
4. Wissen unter Kontrolle: Das Entstehen eines Oligopols
Die Entwicklung leistungsstarker KI ist teuer – nur wenige große Konzerne können sich diese Investitionen leisten. Das führt dazu, dass immer weniger Anbieter die Art und Weise kontrollieren, wie Wissen aufbereitet, gefiltert und dargestellt wird.
Während klassische Suchmaschinen noch relativ transparent arbeiten, agieren KI-Modelle oft im Verborgenen: Was sie ausblenden, weil es den Wertvorstellungen der Entwickler widerspricht, bleibt Nutzer:innen verborgen. Die Gefahr einer “Zensur durch Technik” ist real.
Was hilft: Ein möglichst breites Informationsspektrum nutzen – von Fachliteratur bis zu unabhängigen Plattformen. Kritische Fragen an KI-Modelle zu stellen und Alternativen zu den großen Playern im Blick zu behalten, stärkt die eigene Urteilskraft.
Zwischen Skepsis und Verantwortung
Die Technologie ist faszinierend, ihre Möglichkeiten gewaltig. Doch mit der Nutzung generativer KI geht auch eine Verantwortung einher – insbesondere dann, wenn es um wichtige Entscheidungen geht. Alain Blaes, Geschäftsführer von PR-COM, bringt es auf den Punkt: Ein unkritischer Glaube an KI ist nicht gerechtfertigt. Nur durch konsequente Prüfung und reflektierte Anwendung lässt sich verhindern, dass wir in eine Welt des Scheinwissens abdriften.
Generative KI kann ein mächtiges Werkzeug sein – aber nur, wenn wir sie als das sehen, was sie ist: ein Werkzeug. Kein Ersatz für Denken, kein Garant für Wahrheit, kein moralischer Kompass. Verantwortung beginnt beim Nutzer – und endet nicht bei der Technik.
(pd/PR-COM)