Die Rolle generativer künstlicher Intelligenz in der Wissenschaft wächst rapide – vor allem in der Informatik.
Eine aktuelle Untersuchung der Stanford University beleuchtet, wie häufig große Sprachmodelle wie ChatGPT beim Verfassen wissenschaftlicher Texte inzwischen zum Einsatz kommen. Die Ergebnisse werfen Fragen zur Transparenz und Zukunft wissenschaftlicher Kommunikation auf (via Pressetext).
Die Forscherinnen und Forscher der Stanford University analysierten mehr als eine Million wissenschaftliche Beiträge und Vorabdrucke aus den Plattformen arXiv, bioRxiv und der Fachzeitschrift Nature. Dabei lag der Fokus auf der automatisierten Erstellung von Texten mithilfe großer Sprachmodelle (LLMs – Large Language Models), wie sie etwa bei ChatGPT zum Einsatz kommen.
Die Auswertung umfasste insbesondere Abstracts und Einleitungen – also die Teile eines Artikels, in denen Inhalte zusammengefasst oder kontextualisiert werden. Genau hier zeigten sich deutliche Spuren von KI-generierten Formulierungen.
Informatik als Vorreiter der KI-Nutzung
Besonders auffällig ist die Entwicklung im Bereich der Informatik. Im Jahr 2024 wurden laut Studie rund 22,5 % der Abstracts und 19,5 % der Einleitungen mithilfe von LLMs erstellt. Noch im November 2022 lag dieser Anteil bei lediglich 2,4 %. Auch in den Disziplinen Elektrotechnik und Systemwissenschaften stieg der Einsatz stark an – mit rund 18 % LLM-generierter Texte in den einleitenden Abschnitten.
Etwas zurückhaltender fiel die Nutzung in der Mathematik aus, dort lag sie bei knapp unter 10 %.
Ein weiterer Aspekt der Untersuchung: Besonders häufig greifen Forschende auf KI-gestützte Textgeneratoren zurück, wenn sie viele Veröffentlichungen in kurzer Zeit publizieren – etwa über sogenannte Preprints. Auch in kürzeren Artikeln (unter 5000 Wörtern) ist der LLM-Anteil höher. Die Autoren vermuten, dass Zeitdruck und ein intensiver Publikationswettbewerb hier eine treibende Rolle spielen.
Geografische Unterschiede und Sprachnutzung
Regional zeigen sich Unterschiede im Umgang mit KI: In China und Kontinentaleuropa ist der Einsatz von LLMs häufiger nachweisbar als in Nordamerika oder Großbritannien. Die Forschenden führen das unter anderem auf die verstärkte Nutzung englischsprachiger KI-Tools durch nicht-englischsprachige Wissenschaftlerinnen und Wissenschaftler zurück.
Die Studie, veröffentlicht im Fachjournal Nature Human Behaviour, wirft grundlegende Fragen auf: Wie verändert KI die Art und Weise, wie wissenschaftliche Texte entstehen? Welche Auswirkungen hat das auf Qualität, Nachvollziehbarkeit und Originalität?
Die Forschenden aus Stanford warnen vor möglichen langfristigen Folgen und fordern mehr Transparenz im Umgang mit KI-generierten Inhalten. Die wissenschaftliche Kommunikation stehe vor einem Umbruch – und müsse sich neu definieren.