Die deutschsprachige Wikipedia ist auf dem Weg, KI-generierte Artikel zu verbieten. Am Sonntagabend um 19 Uhr endet eine Abstimmung, die zudem strenge Regeln für den Einsatz KI-generierter Bilder vorsieht. Kurz vor Ende der Abstimmungsfrist liegen die Befürworter des Vorschlags mit rund 80 Prozent in Führung. Die Abstimmung wäre verbindlich für die deutschsprachige Wikipedia.
„Die Wikipedia ist ein Projekt mit von Menschen für Menschen recherchierten und geschriebenen Inhalten“, heißt es in dem Vorschlag. „Der Einsatz von generativer Künstlicher Intelligenz im Zusammenhang mit der Erarbeitung von Inhalten für die Wikipedia ist daher grundsätzlich unerwünscht.“ Auch als Belege sollen erkennbar KI-generierte Texte nicht verwendet werden.
Die Wikipedia kämpft mehr und mehr damit, dass größere Mengen an KI-generierten Texten in schlechter Qualität in die Enzyklopädie gekippt werden. Wie sich diesem Phänomen Einhalt gebieten lässt, darüber diskutieren die ehrenamtlichen Autoren schon eine Weile.
Wikipedia kämpft mit veralteten Informationen und Fehlern
Während die Abstimmung in der Wikipedia vorbereitet wurde und läuft, hat sich die Qualität der neuesten KI-Modelle noch einmal deutlich verbessert – allerdings auch deshalb, weil die Modelle besser gelernt haben, Informationen aus anderen Quellen wie der Wikipedia zu verwenden. Tatsächlich ist die Wikipedia schon seit Jahren eine der wichtigsten Datenquellen für das Training Künstlicher Intelligenzen.
Dabei sind allerdings auch die menschengemachten Texte nicht über jeden Zweifel erhaben. Seit Jahren geht die Autorenzahl immer weiter zurück; der Wikipedia fällt es schwer, die Artikel in der Breite aktuell zu halten. Eine große Recherche der F.A.S. hat im vergangenen Sommer ergeben, dass rund 20 Prozent der Artikel veraltete Informationen enthalten. Weitere 20 Prozent der Artikel enthielten Informationen, die noch nie gestimmt haben. Seitdem ist der Trend der Autorenzahlen weiter nach unten gegangen.
Auch für die Prüfung hatte die F.A.S. Künstliche Intelligenz verwendet – damals hatte die KI in all den vielfältigen Wissensbereichen, die kaum ein menschliches Team überblicken kann, mögliche Auffälligkeiten vorgeschlagen. Die Auffälligkeiten wurden von einem Team aus F.A.Z.-Dokumentaren unter die Lupe genommen. Erst wenn KI und zwei Menschen der Ansicht waren, dass ein Satz zu bemängeln war, war er gezählt worden.
An einigen Stellen bleibt KI-Einsatz erlaubt
So ein KI-Einsatz soll auch nach dem aktuellen Vorschlag noch möglich sein. Die „Nutzung von KI-gestützten Tools zur Fehlererkennung“ bleibt demnach ausdrücklich erlaubt, solange kein Computer eigenständig Artikel ändert.
Auch maschinelle Übersetzungen sind den Vorschlägen zufolge erlaubt, zum Beispiel für die Übersetzung aus anderen Sprachversionen der Wikipedia – falls ein Mensch die Texte vollständig auf inhaltliche Korrektheit prüft. Von Künstlicher Intelligenz generierte Bilder dagegen sollen vor allem dort zulässig sein, wo sie als Beispiele für Artikel über KI-Themen dienen. Außerhalb dessen muss immer eine Diskussion stattfinden, bevor ein KI-generiertes Bild verwendet wird.
Wer gegen diese Regeln verstößt, soll in eindeutigen Fällen von der Mitarbeit ausgeschlossen werden.
Gegner des Vorschlags hatten argumentiert, das geplante Verbot laufe auf ein Verbot von Produktionsmethoden hinaus, nicht auf Qualitätskriterien. Das Verbot berge die Gefahr, künftige sinnvolle Werkzeuge auszuschließen, und könne dazu führen, dass Wikipedia als „in der Zeit stehen geblieben“ wahrgenommen werde.
Die Verbotsgegner hatten dazu aufgerufen, sich unter anderem an der internationalen Wikipedia-Stiftung zu orientieren, die zwar ebenfalls die Enzyklopädie nicht mit KI-generierten Massentexten durchsetzen möchte, aber mehr Hilfsmittel für Autoren entwickeln will. Mit diesen Argumenten konnten sie sich bis Redaktionsschluss allerdings nicht durchsetzen.
