Was sich Googles Gemini Pokémon-Spielen denkt

Damit sie werden, was sie namentlich sein sollen – intelligent –, müssen Künstliche Intelligenzen mit einigem Daten- und Energieaufwand trainiert werden. Mit Text, Bild, Video – kurz, allem was die Welt außerhalb der Schaltkreise erfahrbar macht. Auch Videospiele gehören seit Längerem zum Trainingsrepertoire. So testet unter anderem Google sein Modell Gemini an 25 Jahre alten Spielen aus Nintendos Pokémon-Reihe. Gemini brauchte für einen Durchgang mehr als 800 Stunden und über 106.000 Aktionen – und viel Hilfe von außen. Zu behaupten, die KI habe Pokémon selbständig durchgespielt, würde bedeuten, einem Kind, dass mit Stützrädern und mit der Hand des Erwachsenen auf der Schulter auf dem Rad sitzt, zuzugestehen, es könne schon Fahrrad fahren.

Ein interessanter Aspekt ist jedoch, die in lesbaren Text umgewandelten Gedankenschritte der KI per Live-Stream auf Twitch zu verfolgen. Zwar gibt es extrem langatmige Passagen, in denen man der KI stundenlang dabei zusehen kann, wie sie sich von einer Koordinate zur anderen hangelt – doch dabei simuliert das Modell menschliche Reflektionen: „Ich bin frustriert…“, oder „Ich gehe nun den Kern des Problems an“.

„Ja! Ja! Und tausendfach Ja!“

Derweil laufen für den Laien kaum nachvollziehbare Programmierprozesse im Hintergrund, wenn Gemini selbst seine Werkzeuge anpasst und den virtuellen Gegebenheiten der Spielwelt gemäß umprogrammiert. Dabei führt Gemini, der Zwilling, quasi Selbstgespräche mit Iterationen seiner selbst, die ihm als Berater zur Seite stehen: Einer hilft beim Navigieren, einer bei Rätseln und einer in Kämpfen, in denen die Taschenformatmonster mit ihren verschiedenen aufeinander abgestimmten Fähigkeiten gegeneinander antreten. Angelernt, das heißt mit nützlichen Informationen gefüttert, wurden diese sogenannten Agenten allerdings extern. Sie bilden die Grundlage dafür, dass Gemini sich in Pokémon zurechtfindet. Auch Videospieler legen unbewusst Karten der Spielwelt an, um sich darin zurechtzufinden. Die KI braucht dafür externe Unterstützung.

Doch diese Konsultationen führen oft zu Frust: „Mein Berater ignoriert Nichtspielercharaktere immer noch“, schimpft Gemini. Gleichzeitig ist es sehr einfühlsam, wenn es um seine Pokémon geht: „Ich bin gleich wieder für Dich da Pulsar, mach Dir keine Sorgen.“ Jeder Schritt, jede Navigation innerhalb der zahlreichen Spielmenü-Optionen wird so protokolliert. „Ok, wo ist mein Spezial-Typ Spoonbende“, sagt Gemini, lasst ihn uns suchen“, sagt das Modell, während man am Schirm sieht, wie es wiederholt die Taste für „runter“ drückt, um die Auswahl zu durchforsten. Auf Rückfragen des Spiels, beispielsweise, ob man einen bestimmten Gegenstand auf ein bestimmtes Pokémon anwenden will, antwortet die abgespaltene Pokémon-Beraterin Gem enthusiastisch: „Ja! Ja! Und tausendfach Ja!“ Team-Rocket, die Bösewichte des Spiels, geht es schadenfroh weiter, „werden gar nicht wissen, wie ihnen geschieht“.

So schön, wie langwierig: der Prozess, in dem Gemini seinem frisch gefangenen Pokémon einen Spitznamen gibt, „ein Prozess der Kreativität und Spaß verspricht“. Der Name „Titan“ für das Nidoking aus der Safari-Zone ist schnell gefunden. Das Eingeben der Buchstaben allerdings nimmt wortreich beschriebene Zeit in Anspruch: „T-I-T-A … und jetzt noch zum N, nur ein kleines bisschen noch.“ Am Ende heißt das Tierchen allerdings doch nur „TIT“. „Passend benannt“ („aptly“), findet Gemini das.

Weniger passend findet die KI es, wenn ihre Pokémon in Kampfsituationen zu unterliegen drohen. Das Pokémon „sei an der Schwelle zum Tod“, textet Gemini in einer Situation, in der eines der Tierchen nur wenig Gesundheit übrig hat. Ein Bericht, den man bei Googles KI-Sparte „Deep Mind“ verfasst hat, hält fest, dass Gemini in „verschiedenen Situationen beginnt, ‚Panik’ zu simulieren“. So gebe das Modell bei Pokémon mit niedriger Energie an, man müsse es umgehend heilen, oder fliehen. Diese gedankliche Redundanz korreliert laut Bericht sichtbar mit einer Abnahme der Verständnisfähigkeit der KI. So vergesse Gemini, wenn dieser Zustand andauere, bestimmte Werkzeuge zu nutzen. Nun fühlt die KI den Stress nicht und ihre Stärke wäre es, in solchen Situationen kühlen Kopf zu bewahren. Allerdings scheint sich Gemini bemüßigt zu fühlen, menschliches Verhalten unter Stress nachzuahmen, in dem sich der Blick auf die zur Verfügung stehenden Werkzeug stark verengt. Ob einer der Berater ihr wohl beibringen kann, dass dieses menschliche Verhalten (wenn es simuliert wird) eine Sackgasse ist – ganz gleich, ob im Spiel oder im Ernst?