Der politische Wille zur Einführung von Altersbeschränkungen für soziale Medien nimmt in ganz Europa zu. Mehrere Mitgliedstaaten der Europäischen Union treiben nationale Gesetzgebungsverfahren voran, was die wachsenden Bedenken hinsichtlich der Auswirkungen sozialer Medien auf Minderjährige widerspiegelt. Frankreich, Dänemark, Griechenland und Spanien gehören zu den Ländern, die Maßnahmen angekündigt oder teilweise bereits beschlossen haben, um die Nutzung sozialer Medien durch Kinder und Jugendlichen zu regulieren.
Auch auf europäischer, supranationaler Ebene gewinnt die Debatte an Dynamik. Die Europäische Union hat ein Expertengremium für Kinderschutz in der digitalen Welt eingesetzt, das zu möglichen EU-weiten Altersbeschränkungen beraten soll; entsprechende Empfehlungen werden bis zum Ende des Sommers erwartet.
Während die Diskussion zunehmend Einzug in den öffentlichen Mediendiskurs hält, arbeitet auch Deutschland an einer eigenen Lösung. Vor diesem Hintergrund erscheint es sinnvoll, andere Modelle zu betrachten, um zu verstehen, was funktioniert, welche Herausforderungen bestehen und welche Lehren sich für die europäische Politikgestaltung daraus ziehen lassen.
Um diese Fragen zu beleuchten, lud InterfaceTom Sulston ein, Leiter Public Policy bei Digital Rights Watch in Australien, einer gemeinnützigen Organisation, die die Internetpolitik des Landes aufmerksam begleitet und aktiv mitgestaltet.
Australien realisierte Ende letzten Jahres zum 10. Dezember 2025 eine Altersbeschränkung für bestimmte soziale Medienplattformen für Kinder und Jugendliche unter 16 Jahren. Die Maßnahme ist Teil eines umfassenderen Gesetzespakets, des Online Safety Amendment (Social Media Minimum Age) Bill 2024, das zehn große Social-Media-Plattformen, darunter Meta-Dienste wie Instagram und Facebook, sowie Snapchat und TikTok verpflichtet, die neuen Regulierungen umzusetzen.
Umsetzung des Gesetzes: Wie kam es dazu?
Laut Tom Sulston wurde der Gesetzentwurf innerhalb von nur acht Tagen (21.–28. November 2024) förmlich durch beide Parlamentskammern „durchgepeitscht“ – durch den Senat sowie das Repräsentantenhaus. Die öffentliche Konsultationsphase soll nur sehr kurz gedauert haben und zivilgesellschaftliche Organisationen hatten nur sehr begrenzt Zeit für eine Stellungnahme. Eingaben waren zudem auf maximal eine Seite beschränkt. Kritiker*innen sehen darin ein Zeichen mangelnder sorgfältiger Politikfolgenabschätzung und unzureichender Einbindung relevanter Interessengruppen.
Zur historischen Entwicklung des sogenannten „Social-Media-Verbots“ in Australien erläuterte Sulston, dass die Idee ursprünglich von Politiker*innen auf Ebene der Bundesstaaten aufkam. Verstärkt wurde sie durch kommerzielle Kampagnen wie die Initiative „Let Them Be Kids“ der Herald Sun, die zur Mediengruppe von Rupert Murdoch gehört. Auch Branchenakteure wie Commercial Radio & Audio (Kampagne „36 Months“) griffen das Thema auf und rahmten den Vorschlag zunächst als Maßnahme gegen Online-Mobbing.
Die Maßnahme stieß zudem bei vielen Eltern auf breite Zustimmung: „Sie wollten, dass ihre Kinder von ihren Handys wegkommen“, erklärte Sulston. In Kombination mit dieser breiten öffentlichen Unterstützung und wachsendem politischen Druck, „jetzt zu handeln“, gewann die Initiative rasch an Dynamik. In diesem Klima aus Konsens und Dringlichkeit entwickelte sich der Vorschlag nicht nur zu einer regulatorischen Reaktion, sondern auch zu einem politisch attraktiven Wahlkampfthema für gewählte Amtsträger*innen.
Beteiligung von Kindern und Jugendlichen
Eine der zentralen Fragen im Interface-Webinar war, ob Kinder und Jugendliche sinnvoll in die Ausarbeitung des Gesetzes einbezogen wurden. Formal habe es eine gewisse Beteiligung gegeben, so Tom Sulston. „Aber faktisch war sie nahezu null.“ Während der kurzen Konsultationsphase reichten zwar einige junge Menschen Stellungnahmen ein. Der enge Zeitrahmen und die strengen Vorgaben für die Einreichungen schränkten jedoch die inhaltliche Tiefe der Beteiligung erheblich ein.
Die australische eSafety-Kommissarin beauftragte die Australian Youth Affairs Coalition (AYAC) damit, Konsultationen mit Kindern und Jugendlichen durchzuführen. Der entsprechende Bericht fasst virtuelle Gespräche mit 53 jungen Menschen im Alter von 13 bis 23 Jahren aus den Monaten Juli und August 2025 zusammen.
Hinzuweisen ist in diesem Zusammenhang darauf, dass die Jugendvertretungen kein pauschales Verbot forderten. Der eSafety Youth Council sprach sich beispielsweise für stärkere Sicherheitsfunktionen, verbesserte Moderation und mehr digitale Bildung aus – statt für einen vollständigen Ausschluss junger Menschen von Plattformen wie Instagram. „Für die meisten jungen Menschen sind soziale Medien ein Instrument zur Ausübung ihrer Rechte.“
Vor diesem Hintergrund bezeichnete Tom Sulston das Social-Media-Verbot als „einen Sieg der Politik über die evidenzbasierte Politikgestaltung“ („a victory of politics over policy“).
Die Folgen von Altersbeschränkungen
Zum jetzigen Zeitpunkt gibt es nur begrenzte empirische Erkenntnisse über die gesellschaftlichen Auswirkungen des Verbots, da dessen Einführung erst zwei Monate zurückliegt. Es bleibt unklar, ob die Maßnahme die schädliche Nutzung sozialer Medien reduziert oder das Wohlbefinden junger Menschen verbessert hat.
Zwar berichten Medien, dass rundfünf Millionen Accounts gelöscht wurden. Diese Zahl allein sagt jedoch wenig aus. Sie gibt keinen Aufschluss darüber, ob die Nutzung tatsächlich zurückgegangen ist, ob junge Menschen auf alternative Plattformen ausgewichen sind oder ob sie Altersverifikationssysteme umgehen.
Laut Tom Sulston von Digital Rights Watch lassen sich dennoch bereits einige Schlussfolgerungen ziehen. Demnach bestehen bei allen derzeit in Australien eingesetzten Altersüberprüfungsmethoden Herausforderungen bezüglich der Genauigkeit. Schätzungen zufolge haben Systeme Schwierigkeiten, zuverlässig zwischen einer 15- und einer 16-jährigen Person zu unterscheiden. Dies birgt ein hohes Risiko von Fehlklassifizierungen, wodurch Nutzer*innen zu Unrecht ausgeschlossen werden. Ebenso bestehen Datenschutzbedenken hinsichtlich der Vielzahl zu verarbeitender Daten und Informationen, welche zur Bestimmung des Alters herangezogen werden. Dies kann einerseits Risiken bezüglich des Schutzes dieser Daten schaffen und andererseits auch Effekte hervorrufen, die Nutzende davon abhält bestimmte Dienste zu verwenden.
Insbesondere vulnerable Gruppen sind nach Tom Sulston besonders betroffen. Junge Menschen in abgelegenen Regionen – darunter auch in australischen Aboriginal Communities – sind oft stark auf digitale Plattformen angewiesen, um soziale Kontakte aufrechtzuerhalten. Ebenso nutzen LGBTQ+-Jugendliche Online-Räume, um Unterstützungsnetzwerke zu finden, die vor Ort möglicherweise nicht existieren. Auch für Jugendliche mit Behinderungen können digitale Plattformen zentrale Kommunikations- und Teilhabemöglichkeiten darstellen. Für manche sind Online-Räume kein optionaler Zusatz, sondern essenziell für soziale Inklusion.
Ausgegangen wird ebenso davon, dass junge Menschen infolge eines Ausschlusses von etablierten Plattformen in weniger regulierte oder weniger sichtbare Bereiche des Internets abwandern. Dort gibt es womöglich weniger Schutzmechanismen, geringere Moderation und weniger Aufsicht. Die Verlagerung aus zumindest teilweise regulierten, sichtbaren Umgebungen könnte die Transparenz darüber verringern, welchen Inhalten und Risiken junge Menschen online begegnen.
Plattformen und Verantwortung: Eine echte Veränderung?
Nach Angaben der eSafety-Behörden zeigten sich Plattformen zunächst zurückhaltend gegenüber strengeren Verpflichtungen. Viele beteiligten sich letztlich jedoch an Ko-Kreationsprozessen und freiwilligen Verhaltenskodizes und verpflichteten sich formal zur Umsetzung. Kritiker*innen bemängeln allerdings, dass die Durchsetzung bislang relativ zurückhaltend erfolgt sei. Die australischen eSafety-Behörden gelten als vergleichsweise großzügig und scheuen vor harten Sanktionen bei Verstößen zurück, meint Tom Sulton.
Aus wirtschaftlicher Sicht haben Plattformen möglicherweise nur begrenzte Anreize, sich vehement gegen das Verbot zu stellen. Werbemodelle sind häufig profitabler, wenn sie sich an Erwachsene richten, die über höhere Kaufkraft verfügen und präziser mikrogetargetet werden können. Insofern untergräbt die Beschränkung jüngerer Nutzer*innen nicht zwangsläufig die zentralen Einnahmestrukturen.
Ausblick: Führt das zu echter Veränderung?
Eine grundsätzliche Kritik lautet, dass das Verbot die strukturellen Probleme sozialer Medien nicht löst. Viele Risiken, etwa Desinformation, suchtförderndes Design oder der Kontakt mit schädlichen Inhalten, betreffen Erwachsene ebenso wie Minderjährige. Der Ausschluss unter 16-Jähriger reformiert weder die Plattformarchitektur noch die zugrundeliegenden Geschäftsmodelle. Zudem setzt die Regelung implizit voraus, dass 16-Jährige dann in der Lage sind, digitale Risiken selbstständig zu bewältigen, ohne zwingend stärkere Medienbildung oder strukturelle Schutzmechanismen bereitzustellen.
Über das Altersverbot hinaus stellt sich die Frage nach der strukturellen Macht großer Plattformen. Diese Unternehmen prägen maßgeblich die öffentliche Sphäre, indem sie Informationsflüsse, öffentliche Debatten und soziale Interaktionen steuern. Wenn das Ziel tatsächlich darin besteht, Schäden für Kinder zu reduzieren, so Tom Sulston, sollte der Fokus weniger auf altersbasierter Ausgrenzung als vielmehr auf systemischer Reform liegen.
Aktuelle Entwicklungen in Deutschland
Ein wichtiger Bezugspunkt der deutschen Debatte ist das Papier der Deutschen Akademie der Naturforscher Leopoldina (Leopoldina) vom Sommer 2025, das eine zentrale Grundlage für die laufende Diskussion bildet. Im Herbst 2025 setzte das Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend eine Expertenkommission ein. Diese soll eine umfassende Strategie entwickeln, um Kinder und Jugendliche in der digitalen Welt besser zu schützen. Die Kommission betont, dass ausreichend Zeit für gesellschaftliche und politische Diskurs erforderlich ist. Ein zentrales Element ist die substanzielle Einbeziehung der Perspektiven von Kindern und Jugendlichen bei der Entwicklung von Empfehlung für künftige Regulierungsansätze, im Einklang mit Artikel 12 der UN-Kinderrechtskonvention.
Parallel dazu haben die Regierungsfraktionen bzw. -parteien, die Sozialdemokratische Partei Deutschlands (SPD) und die Christlich-Demokratische Union Deutschlands (CDU), Vorschläge unterbreitet und Beschlüsse gefasst, die ein gesetzliches Mindestalter von 14 Jahren für den Zugang zu sozialen Medien vorsehen. Zudem fordern sie strengere Altersüberprüfungsmechanismen.
Ungeachtet dessen sehen die Allgemeine Bemerkung Nr. 25 zu den Rechten der Kinder im digitalen Umfeld sowie der Digital Services Act (DSA) die Anbieter sozialer Medien in der Verantwortung sichere Dienste für junge Menschen anzubieten. Plattformen unterliegen klaren Vorgaben hinsichtlich Risikoanalyse, Kinderschutz oder auch der Eindämmung schädlicher Inhalte. Dafür bieten u.a. die Leitlinien der Europäischen Kommission zu Artikel 28 DSA umfassende Orientierung, wie dies auch die Allgemeinen Bemerkung Nr. 25 vorsieht. Dort heißt es dazu u.a.: „Die Vertragsstaaten sollen sicherstellen, dass Anbietende digitaler Dienste die einschlägigen Richtlinien, Standards und Verhaltenskodizes einhalten und rechtmäßige, erforderliche und verhältnismäßige Regeln zur Moderation und Kontrolle von Inhalten (Content-Moderation) durchsetzen“ (Absatz 56). Mögliche Altersüberprüfungsmechanismen sollen datenschutzfreundlich, verhältnismäßig und nutzerfreundlich ausgestaltet sein, ohne Menschen auszuschließen. Demzufolgend setzt die Europäische Kommission auf die Einführung der EUDI Wallet in den Mitgliedsstaaten.
Insgesamt besteht die Notwendigkeit, Lösungen zu entwickeln, die Schutz und Teilhabe in ein ausgewogenes Verhältnis bringen. Kinder und Jugendliche sollen in ihrer Entwicklung gefördert sowie sicher und selbstbestimmt an der digitalen Welt teilnehmen können.
Das gesamte Interview mit Tom Sulston bei Interface kann hier in voller Länge nachgeschaut werden.