Die Debatte um ein Verbot sozialer Medien für Kinder nimmt weltweit zu. Hintergrund sind Sorgen um die psychische Gesundheit der Minderjährigen sowie gefährliche Online-Trends wie #SkinnyTok. Doch der Kern des Problems liegt weniger beim Alter der Nutzer:innen als bei den Plattformen selbst: Algorithmische Empfehlungssysteme fördern gezielt Aufmerksamkeit und verstärken extreme Inhalte. Pauschale Altersgrenzen greifen daher zu kurz und verschieben die Risiken nur. Stattdessen rückt eine neue Regulierung in den Fokus, die das Design und die Funktionsweise grosser Plattformen stärker in die Pflicht nimmt – mit dem Ziel, Schäden zu begrenzen und Chancen sozialer Medien zu bewahren.

Your browser does not support the audio element or the audio file is not available.

Artikel

Regulierung sozialer Medien: Sollten wir Kindern den Zugang verbieten?

Länder auf der ganzen Welt erwägen, Kindern den Zugang zu sozialen Medien zu verbieten. Hintergrund sind wachsende Bedenken in Bezug auf psychische Gesundheit und schädliche Online-Inhalte. Die mit Plattformen wie TikTok oder Instagram verbundenen Risiken ergeben sich jedoch weniger daraus, wer sie nutzt, als vielmehr aus den Algorithmen selbst, die Aufmerksamkeit, Interaktion und Informationsflüsse steuern.
Zusammenfassung Die Debatte um ein Verbot sozialer Medien für Kinder nimmt weltweit zu. Hintergrund sind Sorgen um die psychische Gesundheit der Minderjährigen sowie gefährliche Online-Trends wie #SkinnyTok. Doch der Kern des Problems liegt weniger beim Alter der Nutzer:innen als bei den Plattformen selbst: Algorithmische Empfehlungssysteme fördern gezielt Aufmerksamkeit und verstärken extreme Inhalte. Pauschale Altersgrenzen greifen daher zu kurz und verschieben die Risiken nur. Stattdessen rückt eine neue Regulierung in den Fokus, die das Design und die Funktionsweise grosser Plattformen stärker in die Pflicht nimmt – mit dem Ziel, Schäden zu begrenzen und Chancen sozialer Medien zu bewahren.
Veröffentlicht am: 02.04.2026
Simon Mayer, Luka Bekavac, Alice Palmieri und Aurelia Tamò-Larrieux

Robert, ein Zwölfjähriger, beginnt, sich Tanzvideos auf seinem Social-Media-Account anzusehen. Innerhalb weniger Tage schlägt der Empfehlungs-Algorithmus der Plattform extreme Diät-Tipps vor. Die angezeigten Inhalte könnten sich sogar in Richtung von Communities verschieben, die  «Genesung» durch Selbstverletzung propagieren und destruktives Verhalten normalisieren. Nebenan beginnt Sophie, eine 13-Jährige, die mit Leidenschaft programmiert, kurze, leicht verständliche Tutorials zu posten, in denen sie erklärt, wie man einfache Apps erstellt. Zunächst schauen nur eine Handvoll Klassenkameraden zu. Doch ein Video – «Erstelle dein erstes Spiel in 60 Minuten» – weckt das Interesse des Algorithmus. Ein Fremder aus einem anderen Land stellt eine durchdachte Frage; ein professioneller Softwareentwickler schlägt beiläufig einen effizienteren Ansatz vor. Der Kommentarbereich wird zu einem Ort des Dialogs statt des passiven Konsums. Dies stärkt das Selbstvertrauen der Teenagerin und motiviert sie, ihre Leidenschaft weiterzuverfolgen.

Geschichten wie die von Robert werden beispielsweise im Rahmen des #SkinnyTok-Trends auf TikTok dokumentiert. Dabei handelt es sich um einen losen Verbund von Videos, die extreme Schlankheit und restriktive Diäten propagieren. Laut CNN gehen diese «über typische Ernährungsempfehlungen hinaus und empfehlen stattdessen gefährliche Einschränkungen sowie verbale Beschimpfungen». #SkinnyTok ist keine offizielle Kategorie, sondern entstand durch Hashtags, Trends und algorithmische Clusterbildung. Gleichzeitig zeigen Erfahrungen wie die von Sophie, dass soziale Medien keine Falle darstellen, sondern vielmehr eine Startrampe sein können, über die Talente traditionelle Gatekeeper umgehen und von der die Community – und die Teenager selbst – stark profitieren können.

Soziale Medien verbieten? 

Eine gängige Reaktion auf Marktversagen ist Regulierung, und Länder auf der ganzen Welt haben begonnen, auf die Macht der Plattformen zu reagieren. Im Hinblick auf soziale Medien haben sowohl die Regulierung als auch die akademische Forschung Mühe, mit den Entwicklungen Schritt zu halten. Dies hat in letzter Zeit zu radikaleren Ideen geführt, die auf eine schnelle Abhilfe abzielen, insbesondere dem Verbot sozialer Medien für Kinder. Australien hat mit der Einführung altersabhängiger Verbote kürzlich die Führung übernommen, die Kindern unter 16 Jahren (in einigen Fällen unter 14 Jahren) den Zugang zu sozialen Medien vollständig verwehrt. Ähnliche Verbote wurden in Frankreich, Österreich, Deutschland, dem Vereinigten Königreich und weltweit vorgeschlagen. Es scheint nur eine Frage der Zeit zu sein, bis diese Diskussion auch in der Schweiz aufflammt. 

«Eine gängige Reaktion auf Marktversagen ist Regulierung, und Länder auf der ganzen Welt haben begonnen, auf die Macht der Plattformen zu reagieren.»

In Australien bedeutet das «Verbot von sozialen Medien», dass «altersbeschränkte Social-Media-Plattformen» dazu verpflichtet sind, angemessene Massnahmen zu ergreifen, um Kinder unter 16 Jahren von ihren Diensten fernzuhalten. Das Gesetz zielt speziell auf Plattformen ab, deren Hauptzweck darin besteht, Nutzern die Vernetzung, das Teilen von Inhalten und die Interaktion untereinander zu ermöglichen. Beispiele sind Instagram, YouTube oder TikTok. Online-Spiele und Messaging-Apps sind hiervon ausgenommen. Dieses Modell, in dem Plattformsicherheit für Kinder dadurch sichergestellt werden soll, dass sie von den Plattformen ferngehalten werden, verbreitet sich derzeit rasch weltweit, auch in Europa. Es wird zudem, wie beispielsweise in Italien, durch eine zunehmende kommerzielle Ausbeutung von «Kidfluencern» motiviert. Im Januar 2026 hat das französische Unterhaus mit grosser Mehrheit einen Gesetzentwurf verabschiedet, der Kindern unter 15 Jahren den Zugang zu sozialen Medien verbieten soll. In Deutschland wird über die Ausgestaltung eines solchen Verbots diskutiert und im Vereinigten Königreich wird darüber debattiert, welches Alter als verbindliche Untergrenze gelten sollte.

Ein solcher binärer Ansatz zur Regulierung sozialer Medien mag besorgten Eltern und Politikern, die nach einer klaren Haltung suchen, gefallen, er berücksichtigt jedoch nicht die technische und soziale Komplexität von Social-Media-Plattformen. Die wesentliche Frage lautet: «Was sind soziale Medien? Und was bedeutet es, soziale Medien für eine bestimmte Altersgruppe zu verbieten?»

Was ist Social Media wirklich? 

Um die große Vielfalt an Ansichten darüber zu veranschaulichen, wie «Social Media» definiert werden könnte, beginnen wir ganz grundlegend: Aus der Perspektive der Infrastruktur sind soziale Medien eine Kommunikationsplattform, ähnlich wie E-Mail-Dienste oder das Internet selbst. Aus kommunikativer Sicht ist Social Media ein Messaging-Dienst. Und aus der Perspektive des partizipativen Webs sind soziale Medien ein Wegbereiter für die demokratisierte Erstellung von Inhalten. All diesen Perspektiven fehlt jedoch ein wichtiger Aspekt: die Empfehlungssysteme. Diese sind zentral, um die Ursprünge der Schäden (wie auch vieler positiver Aspekte), die den sozialen Medien zugeschrieben werden, zu erfassen. Konkret geht es um den Einsatz von Inhaltsempfehlungssystemen, welche auf Engagement als zentrale Leistungskennzahl optimiert sind – und daher die Zeit, die Nutzer auf einer Plattform verbringen, maximieren. Diese Systeme strukturieren die Informationsumgebung, der die Nutzer begegnen, und prägen in großem Massstab Muster der Aufmerksamkeit, Interaktion und Verstärkung.

«Inhaltempfehlungssysteme prägen in großem Massstab Muster der Aufmerksamkeit, Interaktion und Verstärkung.»

Zwar konzentriert sich ein Grossteil der aktuellen Debatte auf Risiken für Minderjährige, doch die potenziellen Schäden, die mit aggressiven, engagement-orientierten Empfehlungssystemen verbunden sind, betreffen nicht nur Kinder. Vielmehr sind viele der zugrunde liegenden Dynamiken strukturelle Eigenschaften zeitgenössischer Social-Media-Architekturen. Dieselben Designmerkmale, die Kinder schädlichen oder süchtig machenden Inhalten aussetzen, haben auch weitreichende gesellschaftliche Auswirkungen auf erwachsene Nutzer:innen. Dazu zählen die Verbreitung von Falschinformationen, Polarisierung, Aufmerksamkeitsmanipulation und Radikalisierung. Dies verdeutlicht ein grundlegendes Risiko der Regulierung: Wenn wir soziale Medien für unter X-Jährige verbieten, erklären wir implizit, dass es für alle anderen «in Ordnung» ist. Aggressive, engagement-gesteuerte Empfehlungssysteme sind jedoch nicht nur für Minderjährige ein Problem.

Abgesehen von der Frage, wie «Social Media» zu definieren ist, birgt die Fokussierung auf den Zugang von Kindern das Risiko, das Problem am falschen Ort zu diagnostizieren. Wenn die Architektur von Social-Media-Plattformen systematisch schädliche Dynamiken hervorbringt, löst der Ausschluss von Minderjährigen aus diesen Umgebungen das zugrunde liegende Problem nicht. Stattdessen wird die Konfrontation damit lediglich hinausgezögert. Sobald junge Menschen das zulässige Mindestalter erreichen, betreten sie genau dieselben Umgebungen, die von genau denselben, auf Interaktionsmaximierung ausgerichteten Systemen geprägt sind. 

Die grundlegendere Frage lautet daher, ob die Gesellschaft, die am stärksten gefährdete Gruppe aus diesen Umgebungen ausschließen sollte, während die zugrunde liegende Architektur unverändert bleibt, obwohl die damit verbundenen Schäden weiterhin täglich Millionen von Nutzerinnen und Nutzern betreffen.

Eine neue Ära der Regulierung? 

Ein Regulierungsansatz, der sich auf die strukturellen Funktionen konzentriert, die diese Schäden verursachen, würde nicht nur Kinder besser schützen, sondern auch das Informationsumfeld für alle Nutzer:innen verbessern. Zu diesem Zweck hat in Europa und der Schweiz eine neue Ära der Regulierung sozialer Medien begonnen. Das erklärte Ziel ist es, einen regulatorischen Rahmen zu entwickeln, der zu einer systemisch-orientierten Rechenschaftspflicht führt.

«Wenn wir soziale Medien für unter X-Jährige verbieten, erklären wir implizit, dass es für alle anderen «in Ordnung» ist. Aggressive, engagement-gesteuerte Empfehlungssysteme sind jedoch nicht nur für Minderjährige ein Problem.»

Um die Rechenschaftsstandards von Social-Media-Plattformen anzuheben, hat die Europäische Union den Digital Services Act (DSA) verabschiedet. Sowohl der DSA als auch die aktuellen Gesetzgebungsdiskussionen in der Schweiz zum Bundesgesetz über Kommunikationsplattformen und Suchmaschinen (KompG) sehen einen abgestuften Ansatz vor. Anstatt eine Einheitsregel auf jeden lokalen Blog und jeden globalen Riesen anzuwenden, konzentriert sich der DSA auf «Very Large Online Platforms and Search Engines», kurz VLOPSEs. Dabei handelt es sich um Plattformen mit systemischer Wirkung, die Millionen von Nutzern erreichen. In diese Kategorie fallen Plattformen wie TikTok, Instagram oder LinkedIn ebenso wie die bekanntesten Suchmaschinen und vielleicht bald auch ChatGPT

Im Rahmen dieses Regulierungsrahmens stehen nicht mehr nur Beiträge und Inhalte oder das Sperren bestimmter Nutzergruppen im Fokus, sondern vielmehr müssen die Gesamtarchitektur und das Design der Plattform betrachtet werden. Plattformen müssen Risikobewertungen durchführen, um zu ermitteln, welche Auswirkungen ihr Design auf Aspekte wie psychische Gesundheit, Wohlbefinden von Minderjährigen, Verbreitung von Desinformationen oder die Verstärkung illegaler Inhalte hat. Die Regulierungsbehörden setzen solche Bestimmungen bereits durch, wobei die Europäische Kommission bei der Untersuchung grosser US-amerikanischer Social-Media-Plattformen die Führung übernimmt. 

Der DSA fördert zudem die Erforschung systemischer Risiken von Plattformen und schreibt Mechanismen für den Datenzugriff von Forschenden vor. Diese ermöglichen es, Plattformen und ihre Auswirkungen auf die Gesellschaft zu untersuchen. Mithilfe von Datenzugangsmechanismen und technischen Tools wird das Verhalten von Plattformen von einer wachsenden Fach-Community überprüft. Ein Beispiel hierfür ist das CoCoDa-Projekt, in dessen Rahmen die Universität St. Gallen gemeinsam mit Kolleg: innen an der Universität Lausanne, der Universität Maastricht und dem London Open Data Institute technisch-rechtliche Instrumente vorschlägt, um die Konzentration von Kontrolle und Daten auf Online-Plattformen zu mindern.

«Das Problem ist also nicht der Mangel an Wissen seitens der Plattformen, sondern die Abwägung zwischen Schadensminderung und den Zielen hinsichtlich Nutzerinteraktion und Umsatz.»

Es ist hier wichtig, anzumerken, dass sich die Plattformen der problematischen Dynamiken in ihren Ökosystemen bereits heute bewusst sind, insbesondere ihrer Auswirkungen auf junge Nutzer:innen. Erkenntnisse aus jüngsten Rechtsstreitigkeiten in den Vereinigten Staaten zeigen, dass grosse Social-Media-Unternehmen genau verfolgen, wie sich ihre Produkte auf Minderjährige auswirken. Und diese Erkenntnisse überzeugten eine Jury in den Vereinigten Staaten davon, Meta und YouTube für ihre suchterzeugenden Produktdesignpraktiken zur Verantwortung zu ziehen. Interne Dokumente zeigen zudem, dass Plattformen problematische Nutzungsmuster messen, darunter übermässige Bildschirmzeit und die Konfrontation mit schädlichen Inhalten, und das oft mit sehr hoher Genauigkeit.  

Das Problem ist also nicht der Mangel an Wissen seitens der Plattformen, sondern die Abwägung zwischen Schadensminderung und den Zielen hinsichtlich Nutzerinteraktion und Umsatz.

Was wir heute – auch als Input für den DSA und das Schweizer KompG – brauchen, ist eine Klärung der Ursachen von Schäden (und Nutzen), die den «sozialen Medien» zugeschrieben werden. Eine solche Klarheit würde eine Vielzahl von Regulierungsinstrumenten ermöglichen, die ohne pauschale Verbote eingesetzt werden könnten. Ein Vermessen dieses Raums würde uns ein differenziertes Verständnis dafür geben, wie sich Nutzen und Schäden von Social Media auf bestimmte Plattformfunktionen auswirken. Dadurch wäre eine spezifische Regulierung dieser Funktionen möglich, um das Gleichgewicht zugunsten gesellschaftlich nützlicher Social Media zu verschieben. Eine solche konzeptionelle und rechtssichere Klarheit würde zudem effizientere Diskussionen zu diesem Thema ermöglichen – sowohl in der Zivilgesellschaft als auch in der Politik. Schädliche Phänomene wie #SkinnyTok könnten so rigoros reguliert werden, während die Funktion der sozialen Medien, Menschen zu verbinden und zu stärken, bewahrt bliebe.

Medientipps

Sander van der Linden: Social media bans for teens lack evidence (2026)

Artikel

Sander van der Linden: Social media bans for teens lack evidence (2026)

In seinem in «Nature Health» veröffentlichten Artikel argumentiert Sander van der Linden, dass digitale Gefahren eine grosse gesellschaftliche Herausforderung darstellen. Er betont zudem, dass Regierungen Jugendliche darauf vorbereiten müssen, digitale Technologien verantwortungsbewusst zu nutzen.

World Happiness Report 2026

Studie

World Happiness Report 2026

Der «World Happiness Report» ist die weltweit führende Studie zum Thema globales Wohlbefinden und dessen Steigerung. Er vereint Daten zum Wohlbefinden aus über 140 Ländern mit Analysen von weltweit führenden Forschenden verschiedener akademischer Disziplinen. Der Bericht zeigt, dass die Lebenszufriedenheit bei geringer Nutzung sozialer Medien am höchsten ist und mit zunehmender Nutzung sinkt. Dies geht aus Daten des Programms für internationale Schülerbewertung (PISA) hervor. Für die Studie wurden sieben Internetaktivitäten von 15-jährigen Schülern in 47 Ländern erfasst.

«Alpha Boys» (2025)

Podcast

«Alpha Boys» (2025)

Der vierteilige SRF-Podcast «Alpha Boys» zeigt, wie junge Männer in den Sog der «Manosphere» geraten, in der Influencer wie Andrew Tate Millionen User erreichen. Die Serie führt tief in digitale Communities, in denen Selbstoptimierung und vermeintliche Stärke in Frauenhass und Gewaltaufrufe kippen.