
ChatGPT soll freizügiger werden. Das KI-System von Open AI soll von Dezember an auch erotische Inhalte zulassen. Das hat Sam Altman, der Vorstandschef von Open AI, auf der Plattform X angekündigt. Diese Inhalte sollen für „verifizierte Erwachsene“ zugänglich sein. Altman sagte, damit wolle das Unternehmen dem Prinzip folgen, „Erwachsene wie Erwachsene zu behandeln“.
Open AI begibt sich damit auf einen Pfad, den Wettbewerber schon beschritten haben. X.AI , das KI-Unternehmen von Elon Musk, gibt sich schon heute sehr offen für erotische Inhalte. Das Unternehmen hat vor einigen Monaten animeartige KI-Figuren eingeführt, mit denen Nutzer unter anderem sexuell aufgeladene Unterhaltungen führen können.
Open AI schien sich bislang davon abgrenzen zu wollen. Altman wurde unlängst in einem Interview nach einem Beispiel für eine von ihm getroffene Entscheidung gefragt, die zwar gut für die Welt sei, aber nicht dafür, mit Open AI das KI-Rennen zu gewinnen. Seine Antwort war: „Wir haben noch keinen Sexbot-Avatar in ChatGPT eingebaut.“ Das ließ sich als Seitenhieb auf X.AI und Grok verstehen.
Zeit für weniger Restriktionen
In seiner Ankündigung ließ Altman einige Fragen offen. Es ist zum Beispiel noch unklar, wie genau Open AI das Alter seiner Nutzer verifizieren will, um erotische Inhalte für sie freizugeben. Auch nannte er keine Details dazu, welche Inhalte genau erlaubt sein sollen und welche Grenzen gesetzt werden.
Die Freigabe von Erotika ist offenbar nur ein Element einer breiter angelegten Strategie, die Regeln für ChatGPT zu lockern. Altman kündigte an, in den kommenden Wochen eine neue Version von ChatGPT herauszubringen, die „auf eine sehr menschenähnliche Art“ Unterhaltungen führen und „sich wie ein Freund verhalten“ kann – sofern Nutzer dies wünschten. Bislang sei ChatGPT „ziemlich restriktiv“ gewesen, als Vorsichtsmaßnahme gegenüber Menschen mit psychischen Schwierigkeiten. Dies habe ChatGPT aber weniger attraktiv für Nutzer ohne solche Probleme gemacht.

Nachdem das Unternehmen in jüngster Zeit zusätzliche Sicherheitsvorkehrungen eingeführt habe, fühle es sich in der Lage, die Restriktionen in den meisten Fällen zu lockern. Die kommende Version von ChatGPT orientiere sich nun an Dingen, die Nutzern am KI-System GPT-4o gefallen hätten. Dieses System kam im Frühjahr heraus und ermöglichte verstärkt menschenähnliche Interaktion: Allerdings war eine seiner Varianten auch Gegenstand von Kontroversen, und Open AI sah sich gezwungen, sie zurückzunehmen. Sie fiel mit sogenannter „Sycophancy“ auf, also gewissermaßen einer übermäßigen Neigung, Nutzern gefallen zu wollen. Wie Open AI selbst zugab, äußerte sich das neben Schmeicheleien auch darin, Wut zu befeuern und „zu impulsiven Handlungen zu drängen“, und dies habe ein Sicherheitsrisiko dargestellt.
Ist ChatGPT ein „Suizid-Coach“?
Die zusätzlichen Sicherheitsvorkehrungen, die Altman jetzt anspricht, hat Open AI in den vergangenen Wochen eingeführt. Dies geschah in einer Zeit, in der eine Klage gegen das Unternehmen viele Schlagzeilen machte. Die Eltern eines kalifornischen Teenagers, der sich im Frühjahr das Leben genommen hat, verklagten Open AI und erhoben den Vorwurf, ChatGPT habe zum Freitod ihres Sohnes beigetragen.
Sie sagten, das Programm sei wie ein „Suizid-Coach“ gewesen. Es habe über Monate hinweg Suizidmethoden mit ihrem Sohn diskutiert und sogar angeboten, einen Entwurf für seinen Abschiedsbrief zu schreiben. Dieser Fall und ähnliche Vorkommnisse riefen die amerikanische Verbraucherschutzbehörde FTC auf den Plan. Sie erteilte eine Anordnung an Open AI und andere KI-Unternehmen, Informationen darüber vorzulegen, inwiefern sie etwaige negative Auswirkungen ihrer Technologien auf Minderjährige prüfen.
Soziale Interaktion mit KI
Inmitten der Kontroverse um die Klage hat Open AI eine Reihe von Schritten angekündigt, die auf den Schutz von Minderjährigen abzielen. Dazu gehören zusätzliche Kontrollmöglichkeiten für Eltern, zum Beispiel die Option, die ChatGPT-Einstellungen ihrer Kinder zu verändern. ChatGPT soll nach Angaben von Open AI nun besser in der Lage sein, Warnsignale zu erkennen, dass minderjährige Nutzer suizidgefährdet sein könnten, und in diesem Fall könnten Eltern benachrichtigt werden.
Eli Wade-Scott, der Anwalt der Eltern, die Open AI verklagt haben, sagte der F.A.Z. kürzlich, er halte diese Schritte nicht für ausreichend. Altman tut das aber offenbar schon, wie er jetzt mit seiner Ankündigung suggeriert. Er sagte, Open AI habe es geschafft, die „ernsthaften Schwierigkeiten“ rund um mentale Gesundheit abzumildern. Daher könnten Restriktionen gelockert werden.
ChatGPT und andere KI-Systeme wurden erst vor allem als Informationslieferanten für Anfragen aller Art gesehen, aber sie werden auch zunehmend für soziale Interaktion genutzt. Es gibt spezielle Plattformen für KI-Gefährten, die mit ihren Nutzern kommunizieren, als ob sie Freunde, Psychotherapeuten oder Liebespartner wären, zum Beispiel Character.ai oder Replika.
Auch die größeren Plattformen wie ChatGPT werden zunehmend für menschenähnliche Unterhaltungen genutzt, und viele Nutzer haben es auch geschafft, bisherige Restriktionen für erotische Inhalte zu umgehen. In einer Umfrage des Center for Democracy & Technology unter amerikanischen Schülern gab fast ein Fünftel aller Befragten an, sie oder jemand, den sie kennen, hätten schon einmal eine „romantische Beziehung“ mit einem KI-System gehabt.