
Die Forderung nach einem Social-Media-Verbot für
Kinder und Jugendliche bis zum Alter von 16 Jahren klingt erst einmal nach
gesundem Menschenverstand. Wer würde nicht zustimmen, wenn es um Schutz vor
Cybermobbing, sexualisierten Inhalten oder exzessiver Nutzung geht? Jedoch
werden soziale Medien immer mehr zu zentralen Orten des sozialen, gesellschaftlichen
und politischen Lebens. Ein pauschales Verbot für Kinder und Jugendliche unter
16 Jahren alleine wäre zwar eine bequeme Lösung, könnte sich jedoch als wenig effizient
und schwer umsetzbar erweisen und ist zudem nicht mit den Teilhaberechten Jugendlicher
vereinbar.
Die Risiken der Nutzung sozialer Medien sind gut
belegt. Die Forschung beschreibt, wie „unregulierte und
schädliche“ soziale Medien Teil eines Bündels von Belastungen für die
psychische Gesundheit junger Menschen sein können. Ein Experiment zeigt
beispielsweise, dass eine reduzierte Nutzung bei jungen Erwachsenen Einsamkeit
und depressive Symptome teilweise deutlich senkt.
Die Verantwortung liegt bei den Plattformen
Wer
daraus jedoch den Schluss zieht, man müsse den Zugang zu sozialen Medien
pauschal bis zum Alter von 16 Jahren sperren, macht es sich zu einfach. Digitale Teilhabe mit Austausch- und
Vernetzungsmöglichkeiten ist an sich nicht das Problem. Vielmehr sind es die Geschäftsmodelle
der erfolgreichen Plattformen, die Aufmerksamkeit in Gewinn verwandeln – und
dafür Reiz, Empörung, Dauerscrollen und soziale Vergleichsdynamiken
systematisch verstärken. Es sind die Plattformen, die zu wenig Aufwand in die
Entfernung schädlicher Inhalte stecken und die Verbreitung solcher Beiträge durch
ihre Algorithmen oft noch fördern.
Zu diesem Schluss kommt auch eine von der
Leopoldina eingesetzte Kommission von Expertinnen und Experten aus der
Wissenschaft: Für Kinder unter 13 Jahren werden soziale
Medien als grundsätzlich ungeeignet eingestuft. Für 13- bis 17-Jährige werden
altersgemäße Einschränkungen von Plattformfunktionen vorgeschlagen. Dadurch
werden sie einerseits vor Risiken geschützt, erhalten aber auch die Chance,
einen reflektierten und selbstbestimmten Umgang damit zu entwickeln. Auch das
Europäische Parlament fordert nicht nur Altersgrenzen, sondern auch Eingriffe
in „addictive practices“ und Engagement-Algorithmen.
Wenn
Politik jetzt vor allem über Verbote für Kinder und Jugendliche spricht, wirkt
das wie Symbolpolitik: laut, aber am Kern vorbei. Besser wäre, die Anbieter in
die Pflicht zu nehmen – mit klarer Haftung, Sicherheit von Anfang an
und Transparenz darüber, warum bestimmte Beiträge empfohlen werden und andere
nicht. Auch muss es echte Auditrechte für Aufsichtsbehörden und Sanktionen
bei systematischem Versagen geben. Instrumente existieren bereits: in Europa
etwa DSA und DMA (seit 2022). Der DSA verpflichtet Plattformen
zu mehr Sicherheit und Transparenz, der DMA begrenzt die
Marktmacht großer Gatekeeper zugunsten fairen Wettbewerbs.
Konkret
hieße das: Plattformen müssten Risiken nicht nur verwalten, sondern spürbar
senken; manipulative Wachstumstricks bei Minderjährigen wären tabu. Der
Standard wäre ein chronologischer Feed, Empfehlungen gäbe es nur auf Wunsch.
Das Alter würde datensparsam und verlässlich geprüft – und unabhängige
Forschung sowie Aufsicht bekämen Zugriff auf Daten, damit Regulierung auf
Wirkung statt auf Bauchgefühl basiert.
