Studie

Software-Entwicklern fehlt bei KI-Assistenten „gesundes Misstrauen“ 

Software

Künstliche Intelligenz hält zunehmend Einzug in die Softwareentwicklung. Wo früher zwei Entwickler gemeinsam am Code arbeiteten, übernimmt heute oft ein KI-Assistent die Rolle des zweiten Partners.

Eine Studie der Universität des Saarlandes zeigt nun: Diese neue Form der Zusammenarbeit bringt zwar Effizienz, kann aber auch Risiken bergen. Vor allem, wenn Programmierer der Maschine zu sehr vertrauen.

Anzeige

Das Konzept des sogenannten „Pair Programming“ ist seit Jahren ein bewährter Ansatz in der Softwareentwicklung. Zwei Programmierer sitzen gemeinsam am Code, besprechen Lösungen, überprüfen sich gegenseitig und lernen voneinander. Diese Methode reduziert Fehler, fördert den Wissenstransfer und sorgt dafür, dass mehrere Personen den Programmcode verstehen.

Mit der Verfügbarkeit von KI-Werkzeugen wie GitHub Copilot, einem Produkt von Microsoft, hat sich diese Zusammenarbeit verändert. Immer mehr Entwickler nutzen digitale Assistenten, um Code zu generieren oder Vorschläge für Programmieraufgaben zu erhalten. Doch ersetzt eine KI tatsächlich den menschlichen Kollegen?

Saarbrücker Forscher vergleichen Mensch und Maschine

Ein Forschungsteam um Informatikprofessor Sven Apel von der Universität des Saarlandes ging dieser Frage empirisch nach. In einer Studie arbeiteten 19 Studierende mit Programmiererfahrung entweder in menschlichen Zweierteams oder zusammen mit einem KI-Assistenten an einer Programmieraufgabe. Ziel war es, Unterschiede im Wissenstransfer, in der Kommunikation und im Umgang mit Fehlern zu untersuchen.

Anzeige

Das Ergebnis: Teams, in denen Menschen miteinander arbeiteten, tauschten sich intensiver und vielfältiger aus. Neben dem eigentlichen Code wurden auch allgemeine Programmierprinzipien, Erfahrungen und alternative Lösungsansätze diskutiert. In den Teams mit KI-Partner blieb der Austausch dagegen meist auf technische Anweisungen beschränkt, ein deutlich engeres Themenspektrum.

Zu viel Vertrauen in die künstliche Intelligenz

Besonders auffällig war, dass Entwickler die Vorschläge des KI-Systems häufig ungeprüft übernahmen. Während menschliche Kollegen einander regelmäßig hinterfragten, zeigten sich die Teilnehmer gegenüber der Maschine deutlich weniger kritisch. Diese „Vertrauenseffekte“ könnten langfristig problematisch sein, so die Forscher.

Wenn fehlerhafte Vorschläge der KI unbemerkt in Projekte einfließen, können sich sogenannte technische Schulden aufbauen. Also versteckte Mängel, die später zu hohem Wartungsaufwand führen. Apel und sein Team sehen darin eine Gefahr, die weit über die Softwareentwicklung hinausgehen könnte: Auch in anderen Bereichen neigten Menschen dazu, algorithmischen Systemen mehr Glauben zu schenken als menschlichen Einschätzungen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

KI als Werkzeug – nicht als Partner

Die Untersuchung zeigt, dass KI-Assistenz beim Programmieren zwar produktiv sein kann, aber die zwischenmenschliche Dynamik der klassischen Paarprogrammierung nicht ersetzen kann. Vor allem der Lernprozess leidet: Wer sich zu sehr auf automatisierte Vorschläge verlässt, vertieft sein Verständnis für den Code weniger.

Nach Einschätzung der Saarbrücker Forscher eignen sich KI-Systeme daher vor allem für Routinetätigkeiten oder klar definierte Aufgaben. Bei komplexeren Projekten bleibt der Austausch zwischen Menschen entscheidend: unterstützt, aber nicht ersetzt, durch künstliche Intelligenz.

Damit die Kombination aus Mensch und Maschine in der Softwareentwicklung funktioniert, müsse das Zusammenspiel gezielt gestaltet werden, betonen die Forscher. Es brauche Mechanismen, die kritisches Denken fördern und den Wissenstransfer zwischen Entwickler und KI verbessern.

(pd/Universität des Saarlandes)

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.