KI-Code: Programmierer vertrauen KI mehr als Kollegen – Wissen

Wer öfter einen KI-Chatbot bemüht, hat wahrscheinlich schon mal wenig hilfreiche Antworten bekommen. Sie müssen nicht gleich so fatal gewesen sein wie manche Gesundheitstipps, die KIs schon eingefallen sind, etwa Kochsalz doch mal durch das giftige Natriumbromid zu ersetzen. Aber vielleicht erfundene Buchtitel als Weihnachtsgeschenktipps oder nicht existente Filme, die der Bot für den Heimkinoabend empfiehlt. Und viele Bot-Chatter werden zumindest im ersten Impuls wohl darauf vertraut haben, dass an den Antworten etwas dran ist.

Offenbar ergeht es nicht nur unbedarften KI-Nutzerinnen so, sondern auch Menschen, denen man eine professionelle Nähe zum Thema unterstellen würde: Software-Entwicklern. Das zeigt eine Studie der Universität des Saarlandes, die Ergebnisse werden diese Woche in Seoul auf einer der größten Informatik-Fachkonferenzen vorgestellt.

Software entsteht heute schon ganz anders als noch vor einigen Jahren. Bewährt hat sich „Pair Programming“, ein Vorgehen, bei dem sich Entwicklerinnen beim Coden austauschen. Das kann tatsächlich so aussehen, dass zwei Personen vor einem Computer sitzen und gemeinsam an einer Aufgabe arbeiten, sich gegenseitig kontrollieren und über Ideen beraten. Doch diese Funktion übernehmen vermehrt KI-Agenten, die längst nicht mehr nur Vorschläge zur Vervollständigung angefangener Code-Zeilen machen, sondern seit fast fünf Jahren als Gesprächspartner bereitstehen. Bei Google etwa ist mehr als ein Viertel des neuen Codes KI-generiert.

Wie der Umgang mit dem KI-Kollegen sich von dem mit echten Kollegen unterscheidet, hat das Forschungsteam aus Saarbrücken untersucht. Dafür ließen sie 19 Testpersonen in menschlichen Zweierteams oder mit einem KI-Assistenten kooperieren.

Die gute Nachricht: Auch Menschen werden weiterhin gebraucht

In beiden Konstellationen tauschten sich die Probanden über die Programmieraufgaben aus. Die menschlichen Teams neigten dazu, vom Thema abzuschweifen und weniger konzentriert am jeweiligen Problem zu verweilen, sagt Sven Apel, der als empirischer Informatiker an der Studie beteiligt war. Der KI-Assistent förderte hingegen zielgerichtetere Interaktionen – denen die Nutzer auch bereitwilliger vertrauten. Was zunächst nur nach einem weniger netten Arbeitsumfeld klingt, könnte ein Problem bedeuten.

Zwischen den menschlichen Kollegen habe es viel häufiger kritische Rückfragen gegeben und ein gesundes Misstrauen, ob der jeweilige Partner wirklich alles richtig gemacht hat, sagt Apel. Vorschläge des KI-Assistenten nahmen die Test-Programmierer eher ohne kritische Prüfung an.

Doch die KI programmiert keineswegs fehlerfrei. Und Programmierfehler können weitreichende Folgen haben. Als die Cloudservices von Amazon im Oktober für wenige Stunden ausfielen, war das auf der ganzen Welt spürbar: Snapchat fiel aus, Flüge wurden gecancelt, Studenten waren von Lernplattformen abgeschnitten. Das öffentliche Leben und die Wirtschaft basieren auf Code. Umso wichtiger, KI-Code nicht blind zu vertrauen.

„Die automatische Technologie gibt uns keine Garantien, dafür braucht man Menschen“, sagt Apel. Es gehe nun stärker darum, sicherzustellen, dass Programmzeilen – wer auch immer sie verfasst hat – auch Jahre später noch verständlich sind, funktionieren und sich ändern lassen. Das mag auch Software-Entwicklerinnen beruhigen: Menschliche Kollegen sind noch nicht überflüssig.