Ob Mitarbeiter freundlich genug sind, entschied bislang das Bauchgefühl des Managers. Auch sein prüfender Blick durch das Restaurant. Burger King hat dafür jetzt eine andere Lösung: eine KI-Assistentin namens „Patty“. Die Sprachassistentin ist Teil des KI-Systems „BK Assistant“, basierend auf einem Modell von Open AI, dem Hersteller von Chat-GPT.
Seit Kurzem tragen Mitarbeiter und Manager in gut 500 US-amerikanischen Filialen der Fast-Food-Kette neue Kopfhörer – und über diese spricht eine Frauenstimme zu ihnen. Das System soll den Mitarbeitenden ihre Arbeit erleichtern und beispielsweise Rezepte diktieren. Patty meldet aber auch, wenn der Cola-Light-Automat leer wird oder die Toiletten gereinigt werden müssen. Und Patty sagt dem Management täglich, wie es um den „Freundlichkeitsscore“ des Teams steht.
Ob die Mitarbeitenden freundlich genug sind, entscheidet die KI anhand der Worte, die sie benutzen. „Bitte“. „Herzlich willkommen“. „Danke“. Wer diese Vokabeln verwendet, schneidet gut ab. Wer nicht, zieht den Freundlichkeitsscore nach unten.
Elisabeth André ist Professorin für Menschenzentrierte Künstliche Intelligenz an der Universität Augsburg. Sie hält einen solchen Einsatz von KI für fragwürdig: „Man kann Freundlichkeit nicht auf ein Bitte und ein Danke reduzieren“, sagt André. Freundlichkeit, sagt die Informatikerin, stecke vor allem im Tonfall – und in Dingen wie Blickkontakt, die ein reines Audiosystem schlicht nicht erfasse. Wer ein Tablett auf den Tresen knallt und schon wieder weg ist, bevor der Kunde reagieren kann, der habe vielleicht „Danke“ gesagt. Freundlich sei das trotzdem nicht.
Natürlich ist Freundlichkeit messbar, aber nicht so
Das, was die KI da in den Fast-Food-Filialen misst, ist also gar nicht Freundlichkeit. Es sind bestenfalls Sprachmuster. Freundlichkeit ist immer situationsabhängig.
Dabei sei es laut der Informatikerin André durchaus möglich, auch echte Freundlichkeit mit KI zu messen. Es sei nur viel aufwendiger. Denn auch Situationen, Stimmwärme, Blickkontakt und die Art zu formulieren müssten hier einbezogen werden. Und auch, ob jemand dem anderen Autonomie lasse, sei wichtig. Also beispielsweise ob der Mitarbeiter wartet, bis der Kunde fertig gesprochen hat. Hinzu kämen kulturelle Unterschiede: Was hier als zuvorkommend gilt, wirkt anderswo kühl. Ein System müsse all diese Dinge kennen und einbeziehen.
In ihrer eigenen Forschung setzt André ähnliche KI-Systeme ein, um etwa Medizinstudierende auf Patientengespräche vorzubereiten oder Lehramtsstudierende auf schwierige Elterngespräche. Auch hier spielt die Auswertung von Freundlichkeit eine große Rolle. Der entscheidende Unterschied zu „Patty“: Diese Auswertungen sind freiwillig und anonym. Und es ist nur ein Training – denn in den echten Gesprächen hört niemand mit. „Bei uns hat jeder Teilnehmer selbst die Kontrolle darüber“, sagt André. Sobald ein Arbeitgeber aber dauerhaft mithöre und bewerte, sei für sie eine Grenze überschritten. „Eine Überwachung, so wie es bei Burger King zu sein scheint, finde ich ganz schrecklich.“
Kunden zeigen sich von dem neuen Konzept ebenfalls wenig überzeugt. „Das geht mir ein bisschen zu weit“, sagte ein Mann in einem Interview mit NBC News. Ein anderer nannte die KI „Big Brotherish“. Die Menschen seien ohnehin völlig unterbezahlt – da sei es ihm egal, was sie sagen, solange sie ihm sein Essen geben.
Burger King weist die Kritik zurück. Das System solle Mitarbeitende unterstützen und nicht einzelne Beschäftigte überwachen, sagte ein Sprecher der Fast-Food-Kette. Die Auswertungen seien nur als Hinweis für den Service gedacht.
In Deutschland wäre eine KI wie „Patty“ ohnehin kaum denkbar. Denn Audio- und Videoaufnahmen am Arbeitsplatz sind ohne Einwilligung aller Beteiligten hierzulande verboten – und die lässt sich auch im Drive-in schlecht einholen. Hinzu kommt das Mitbestimmungsrecht des Betriebsrats. Das Bauchgefühl des Managements darf bei uns also erst mal bleiben.
