X und Polarisierung: Forscher tricksen Elon Musk aus

Bei manchen wissenschaftlichen Studien ist die Methode spannender als das Ergebnis. Die Arbeit, die Forscher aus Stanford und anderen Universitäten jüngst im Magazin „Science“ präsentiert haben, ist so ein Fall. Ihr wenig überraschendes Ergebnis lautet: Wenn man Nutzern der ehemals als Twitter bekannten Plattform X mehr Inhalte einblendet, die den politischen Gegner verteufeln, dann steigert das beim Nutzer selbst die Verachtung für den Gegner. Man läuft nicht gerade Gefahr, unbescheiden zu wirken, wenn man sich angesichts dieses wissenschaftlichen Resultats denkt: „Schön für die Forscher, aber da wär’ ich auch selbst draufgekommen.“

Das Besondere ist eben, dass die Experten einen fundierten Zusammenhang zwischen der algorithmischen Auswahl der Inhalte auf X und der politischen Polarisierung gefunden haben. Denn auch wenn die großen Onlineplattformen für viele so etwas wie das Fenster zur Welt sind, weiß niemand genau, welche Wirkung die Auswahl der Inhalte hat, die die Algorithmen in dieses Fenster stellen. Spaltet sie die Gesellschaft? Macht sie Nutzer einsam? Schadet sie der Entwicklung von Jugendlichen?

Plattformen gängeln unabhängige Wissenschaftler

Es sind die brennenden Fragen unserer Zeit. Ein Grund, weshalb sie offen sind, ist das Gebaren der Plattformen. Sie lassen unabhängige Forscher nicht an die Daten, und wenn doch, dann gängeln sie die Wissenschaftler. Das Videoportal Tiktok und der Facebook-Konzern Meta behalten sich vor, Studien vor Veröffentlichung zu sichten. X erschwert Forschern laut der Europäischen Kommission sogar den Zugang zu öffentlichen Daten. Experimente auf den Plattformen sind so gut wie unmöglich. Eines der wenigen war das „2020 Election Project“ von Meta und 17 unabhängigen Wissenschaftlern. Der als Beobachter fungierende Kommunikationsforscher Michael Wagner bezeichnete den Charakter dieser Zusammenarbeit jedoch als „Unabhängigkeit per Erlaubnis“ – also eben keine echte wissenschaftliche Unabhängigkeit.

Wie man es auch ohne Erlaubnis schafft, haben die Autoren der aktuellen Studie gezeigt. Ihr Trick: Sie haben zwischen die Plattform X und knapp 1300 freiwillige Testpersonen ein Computerprogramm geschaltet. Für die Nutzer sah alles aus wie immer – nur dass die Forscher mit dem Programm die Kontrolle über die Auswahl der Inhalte übernommen hatten. So haben sie nicht nur ihr Experiment auf X praktisch an X-Chef Elon Musk vorbei durchgezogen, sondern auch anderen Wissenschaftlern vorgemacht, wie sich die brennenden Fragen unserer Zeit ohne Hilfe der Techkonzerne beantworten lassen.