Einleitung und Positionierung
Der Bundesverband der österreichischen Kinderschutzzentren nimmt zum Plan der österreichischen Regierung, ein Social-Media-Verbot für unter 14-Jährige einzuführen, aus fachlicher Sicht Stellung.
Wir teilen die Sorge der Bundesregierung um die psychosoziale Gesundheit junger Menschen, die aufgrund der erheblichen mit der Nutzung sozialer Medien verbundenen Risiken beeinträchtigt werden kann. Die derzeitige Ausgestaltung der dominanten Social-Media-Plattformen ist nicht auf das Wohl junger Menschen ausgerichtet, sondern folgt wirtschaftlichen Interessen und Geschäftsmodellen, die auf maximale Aufmerksamkeitsbindung, langfristige sozioemotionale Abhängigkeit, kommerzielle Ausbeutung und Datenextraktion abzielen.
Die Folgen reichen von verzerrten Selbstbildern bis hin zu negativen Einflüssen auf Beziehungen, Sozialverhalten und psychische Gesundheit. Algorithmen-gesteuerte Inhalte und digitale Gewalt gefährden die psychische Entwicklung. Aus dieser Analyse folgt: Altersgerechte Schutzmechanismen und gezielte Zugangsbeschränkungen erscheinen notwendig und gerechtfertigt. Kinder brauchen Schutzräume – auch im digitalen Raum.
Gleichzeitig warnen wir vor pauschalen Verboten, da diese ohne flankierende strukturelle Maßnahmen zu kurz greifen und sogar kontraproduktiv wirken können. Es geht um eine sorgfältige Güterabwägung zwischen dem Schutz vor den entwicklungsgefährdenden Auswirkungen von Social Media und Kinderrechten. Kinderschutz im digitalen Raum erfordert daher einen differenzierten, mehrdimensionalen Ansatz, der diese Rechte in Einklang bringt und die Verantwortung dort platziert, wo sie hingehört: bei den Plattformen selbst, der Politik und erwachsenen Bezugspersonen – nicht primär bei Kindern und Jugendlichen.
Der Bundesverband Österreichischer Kinderschutzzentren spricht sich daher für folgende Maßnahmen aus:
- Gesetzliche Altersgrenze ab 16 Jahren für Content-Plattformen (z. TikTok, Instagram, YouTube) sowie ab 14 Jahren für Messenger-Dienste (z. B. WhatsApp), mit datenschutzkonformer Altersverifikation
- Medienbildung ab dem Volksschulalter für Kinder, Eltern und Fachkräfte
- Klare rechtliche Rahmenbedingungen basierend auf dem Digital Services Act
Bestehende rechtliche Regelungen für digitalen Kinderschutz stärker nutzen
Der digitale Raum ist kein rechtsfreier Raum. Die rechtliche Ausgangslage ist bereits umfassender als oft dargestellt. Viele Plattformen haben in ihren eigenen Nutzungsbedingungen ein Mindestalter für die Nutzung festgelegt, kontrollieren dieses aber nicht. Die Datenschutz-Grundverordnung (DSGVO) sieht in Österreich bereits ein Mindestalter von 16 Jahren für die eigenständige Einwilligung in die Verarbeitung personenbezogener Daten vor. Der Digital Services Act (DSA) der EU verpflichtet große Online-Plattformen zu weitreichenden Schutzmaßnahmen für Minderjährige. Folgende Möglichkeiten bietet der DSA, um Plattformanbieter stärker in die Verantwortung zu nehmen:
- Implementierung von Altersverifikationssystemen
- Verpflichtende Risikoanalysen für große Plattformen in Bezug auf den Schutz Minderjähriger und entsprechenden Kinderschutzrichtlinien angelehnt an internationale Standards für Kinderschutzkonzepte
- Transparenzpflichten für sowie Anpassung von Empfehlungsalgorithmen und Inhaltsdarstellungen
- Maßnahmen gegen die kommerzielle Nutzung persönlicher Daten von Kindern und Jugendlichen
- Verbot personalisierter Werbung für Minderjährige
- Verpflichtende Kontaktstellen und Beschwerdemechanismen für betroffene Personen
Das zentrale Problem ist nicht das Fehlen rechtlicher Grundlagen, sondern deren mangelnde Um- und Durchsetzung. Die EU-Kommission und nationale Datenschutzbehörden verfügen bereits heute über die Befugnis, bei Verstößen gegen DSA und DSGVO Strafen in Milliardenhöhe zu verhängen. Statt neue nationale Sonderwege zu beschreiten, könnte Österreich seine Ressourcen auf die konsequente Anwendung bestehender Regelungen konzentrieren. Nationale Kinderschutzstrategien sollten sich eng an den europäischen Vorgaben orientieren und diese aktiv mitgestalten. Die geplante EU-Altersverifikations-App, die ab März 2026 getestet werden soll, bietet z. B. einen datenschutzkonformen Ansatz zur Umsetzung bestehender Altersgrenzen.
Die Ambivalenz von Verboten im Kinderschutz: Kinderrechte ernst nehmen
Als Kinderschutzorganisation sehen wir uns der sorgfältigen Abwägung im Spannungsfeld zwischen Schutz- und Beteiligungsrechten von Kindern verpflichtet. Die UN-Kinderrechtskonvention garantiert nicht nur Schutzrechte (Schutz vor Gewalt und vor sexueller Ausbeutung), sondern auch Förder- und Beteiligungsrechte (Recht auf Beteiligung, auf Meinungs- und Informationsfreiheit, Zugang zu Medien und Informationen).
Pauschale Verbote bergen die Gefahr, Kinder und Jugendliche von Räumen der sozialen Teilhabe und Information auszuschließen. Für viele junge Menschen sind Social Media zentral für die Vernetzung und den Austausch mit Gleichaltrigen und die Informationsbeschaffung. Besonders für marginalisierte Gruppen, etwa LGBTQIA+-Jugendliche, junge Menschen mit Behinderung oder jene in ländlichen Regionen, können digitale Räume wichtige Schutz- und Vernetzungsräume darstellen. Ein Verbot würde diese Jugendlichen von wichtigen Unterstützungsstrukturen und dem Recht auf Informationsfreiheit abschneiden.
Zudem besteht die Gefahr, dass Verbote Jugendliche in unbegleitete Illegalität drängen. Erfahrungen aus Australien, wo seit Dezember 2025 ein Social-Media-Verbot für unter 16-Jährige gilt, zeigen, dass viele Jugendliche Wege finden, Altersbeschränkungen zu umgehen – sei es durch VPN-Nutzung, gefälschte Altersangaben oder die Verwendung von Accounts Erwachsener. Die Wahrscheinlichkeit, dass Jugendliche dann ohne Wissen und Begleitung ihrer Bezugspersonen Social Media nutzen, könnte sich erhöhen. Dabei könnten durch eine pädagogisch begleitete Nutzung wichtige Fähigkeiten wie Medienkompetenz, kritisches Denken und die Fähigkeit zur Selbstregulation in einem sicheren Rahmen erlernt und geübt werden. Verbote alleine vermitteln jedoch noch keine Kompetenzen.
Dennoch haben Jugendschutzgesetze auch bei unvermeidbaren technischen Umgehungsmöglichkeiten ihren Wert: Sie schaffen Klarheit über gesellschaftliche Normen und bieten Orientierung für Kinder, Eltern und Fachkräfte. Eine rechtlich verankerte Altersgrenze stärkt Eltern in ihrer Erziehungsverantwortung, gibt Pädagog*innen Rückhalt und signalisiert jungen Menschen selbst, dass die Gesellschaft ihre besondere Schutzbedürftigkeit anerkennt. Insofern ist die Einführung klarer Regelungen sinnvoll – vorausgesetzt, sie werden in einen umfassenden Schutzansatz eingebettet und nicht als alleinige Lösung missverstanden.
Risiken der frühen und unregulierten Nutzung
Die Nutzung sozialer Medien unter 16 Jahren ist aus Sicht des Bundesverbandes Österreichischer Kinderschutzzentren mit zahlreichen Risiken verbunden:
- Frühzeitiger Konsum kann die Persönlichkeitsentwicklung nachhaltig beeinträchtigen. Dazu gehören Auswirkungen auf Selbstwertgefühl, soziale Kompetenzen und reales Beziehungserleben durch unmittelbare zwischenmenschliche Kontakte. Dies kann zu sozialer Isolation, Gefühle der Vereinsamung und psychischen Problemen führen.
- Intensive Social-Media-Nutzung korreliert mit erhöhten Raten von Depressionen und Angststörungen. Auch Schlafstörungen, Konzentrationsprobleme und eine reduzierte Aufmerksamkeitsspanne gehören zu den erwiesenen Risiken einer intensiven Nutzung.
- Sexualisierte, stereotype und gewaltverherrlichende Inhalte führen zu einem verzerrten Körperbild und beeinflussen die sexuelle Selbstwahrnehmung. Besonders Instagram wird in Studien mit negativen Auswirkungen auf das Körperbild und die psychische Gesundheit junger Nutzerinnen in Verbindung gebracht.
- Junge Menschen sind besonders empfänglich für irreführende Inhalte und extremisierte Sichtweisen. Die Orientierung an verzerrten Realitätsbildern kann das Vertrauen in demokratische und soziale Werte schwächen. Extremistische und ideologisch radikalisierende Inhalte, die oft gewaltverherrlichend sind, können insbesondere für Burschen und junge Männer eine bedeutsame Gefährdung darstellen.
- Digitale Gewalt ist weit verbreitet, z. B. Cybermobbing. Besonders Mädchen und junge Frauen erleben häufig Beschämung, Ausgrenzung und psychische Belastungen durch Angriffe im Netz.
In einer repräsentativen Umfrage in Österreich (Saferinternet.at, 2025) gaben 38 % der Jugendlichen im Alter von 11 bis 17 Jahren an, schon einmal sexuelle Belästigung im Internet erlebt zu haben. Die gleiche Anzahl von Jugendlichen wurde schon einmal aufgefordert, Nacktfotos oder -videos von sich zu schicken, 65 % meinen, dass Jugendliche häufig mit solchem Bildmaterial erpresst werden. Fast einem Drittel (28 %) wurden unangenehme sexuelle und intime Fragen gestellt.
- Die Gestaltung vieler Plattformen – ihre Toxizität, die von ihrem Geschäftsmodell ausgeht – fördert abhängiges Verhalten. Aktuelle Studien zeigen bedenkliche Entwicklungen: Die WHO-Studie zur Gesundheit von Schulkindern (HBSC 2022) dokumentiert, dass 11 % der europäischen Jugendlichen Anzeichen problematischer Social-Media-Nutzung zeigen, in Deutschland sind es laut DAK-Studie (2024) 25 % der 10- bis 17-Jährigen und 4,7 % gelten als abhängig von Social Media.
Suchtverstärkende Design-Mechanismen wie Endless Scroll, manipulative Push-Benachrichtigungen, variable Verstärkung durch Likes und Empfehlungsalgorithmen, die auf Engagement optimiert sind, zielen darauf ab, möglichst viel Aufmerksamkeit zu binden und das Belohnungszentrum im Gehirn zu stimulieren. Diese manipulativen Mechanismen wirken auch auf Erwachsene, aber Kinder und Jugendliche, deren Fähigkeit zur Impulskontrolle und Selbstregulation noch nicht voll entwickelt ist, sind ihnen besonders ausgeliefert. - Die kommerzielle Ausbeutung von Minderjährigen durch Datensammlung, Profiling und personalisierte Werbung wird in der Praxis oft unzureichend unterbunden, obwohl sie durch den DSA verboten ist. Die Intransparenz algorithmischer Systeme verhindert zudem, dass Eltern, Pädagog*innen sowie die Jugendlichen selbst nachvollziehen können, wie Inhalte kuratiert werden und Aufmerksamkeit gesteuert wird.
Technische Machbarkeit und Datenschutzrisiken
Die technische Umsetzung von Altersbeschränkungen wirft erhebliche datenschutzrechtliche und praktische Fragen auf. Derzeit werden verschiedene Methoden diskutiert: Selbstauskunft (leicht umgehbar), dokumentenbasierte Verifikation über ID Austria (Identitätsdaten werden übermittelt), biometrische Altersschätzung mittels KI (fehleranfällig und diskriminierend) oder Zero-Knowledge-Proofs (datenschutzfreundlich, aber technisch komplex).
Die Grundrechts-NGO epicenter.works, mit der der Bundesverband der Kinderschutzzentren im fachlichen Austausch steht, warnt eindringlich vor den Gefahren identitätsbasierter Altersverifikation. Geschäftsführer Thomas Lohninger formuliert es deutlich: „Sobald eine Altersverifikation an einen Identitätsnachweis gekoppelt ist, ist das anonyme und freie Internet Geschichte.“ Damit würde eine technische Infrastruktur geschaffen, die staatliche Kontrolle über digitale Teilhabe ermöglicht – mit enormen Risiken für Meinungsfreiheit, Datenschutz und Diskriminierung. Eine zukünftige Regierung könnte diese Infrastruktur nutzen, um den Zugang zu Social Media nach Herkunft, Religion oder anderen Kriterien zu steuern.
Auch die bei ID Austria verwendete Architektur birgt Probleme: Jede Altersüberprüfung wäre für das Innenministerium nachvollziehbar, was faktisch eine Protokollierung der Social-Media-Nutzung aller Bürger*innen bedeuten würde. Die australische Variante, bei der Plattformen selbst die Verifikation durchführen, z. B. durch hochgeladene Ausweise oder biometrische Nachweise, führt zur massenhaften Sammlung sensibler Identitätsdaten bei privaten Unternehmen, was zusätzliche Missbrauchsrisiken schafft. Hier ist eine klare Position erforderlich: Datenschutz ist ein Kinderrecht. Maßnahmen, die zum Schutz von Kindern gedacht sind, dürfen nicht ihre Privatsphäre und die aller anderen Bürger*innen fundamental gefährden.
Erfahrungen aus Australien: Zwischen Symbolpolitik und Realität
Australien hat am 10. Dezember 2025 als erstes Land weltweit ein striktes Social-Media-Verbot für unter 16-Jährige implementiert. Die ersten Wochen zeigen ein gemischtes Bild. Laut Regierungsangaben wurden 4,7 Millionen Accounts von Kindern und Jugendlichen deaktiviert, gelöscht oder eingeschränkt. Gleichzeitig berichten Medien, dass viele Jugendliche weiterhin Zugang zu Plattformen haben – durch VPN-Nutzung, gefälschte Altersangaben oder die Verwendung der Geräte ihrer Eltern.
Kritisch zu sehen ist auch, dass das australische Verbot nicht klar zwischen verschiedenen Diensten differenziert. Während TikTok, Instagram, Snapchat und Facebook gesperrt sind, bleiben Plattformen wie Roblox, WhatsApp und Messenger zugänglich. Diese Unterscheidung erscheint willkürlich, zumal auch auf den nicht gesperrten Plattformen Risiken wie Cybermobbing oder unangemessene Kontakte bestehen. Empfehlenswert wäre eine technologieneutrale Regelung, die nicht auf konkrete Unternehmen abzielt, sondern auf bestimmte Geschäftspraktiken und -tätigkeiten.
Aus kinderschutzfachlicher Sicht zeigt die australische Erfahrung, dass Verbote allein nicht ausreichen. Sie bieten bestenfalls Symbolpolitik, schaffen aber ohne begleitende Maßnahmen keine tatsächliche Sicherheit für junge Menschen im digitalen Raum. Positiv hervorzuheben ist, dass die Anbieter der Plattformen direkt in die Verantwortung genommen werden.
Empfehlungen: Ein mehrdimensionaler Ansatz für wirksamen Kinderschutz
Der Bundesverband der österreichischen Kinderschutzzentren empfiehlt einen umfassenden Ansatz, der an verschiedenen Ebenen ansetzt:
Struktureller Kinderschutz bei Plattformen: Die Verantwortung muss primär bei den Plattformbetreiber*innen liegen. Wir fordern das Verbot suchtverstärkender Design-Mechanismen für Minderjährige, verpflichtende altersgerechte Standardeinstellungen (private Profile, deaktivierte Standortdaten, eingeschränkte Kontaktmöglichkeiten durch Fremde), die konsequente und durch empfindliche Sanktionen untermauerte Unterbindung personalisierter Werbung für Minderjährige sowie Transparenzpflichten bezüglich algorithmischer Funktionsweisen. Unabhängige Audits durch Datenschutzbehörden und Kinderschutzorganisationen sowie erhebliche Sanktionen bei Verstößen sind unerlässlich.
Datenschutzkonforme Altersverifikation: Sollten Altersverifikationssysteme eingeführt werden, müssen diese dem Grundsatz der Datenminimierung entsprechen. Die EU-Altersverifikations-App nach dem Zero-Knowledge-Prinzip, die ab März 2026 getestet wird, könnte ein gangbarer Weg sein – sofern sichergestellt ist, dass keine zentralisierte Speicherung von Identitätsdaten erfolgt. Epicenter.works schlägt einen alternativen Ansatz vor: gerätebasierte Altersverifikation durch Betriebssysteme, wobei nur die Altersgruppe, nicht die Identität an Apps weitergegeben wird. Solche Ansätze verdienen weitere Prüfung.
Präventions- und Hilfsangebote: Der Ausbau von Präventionsprogrammen zu Social-Media-Sucht, Cybermobbing und Körperbildstörungen ist dringend erforderlich. Niederschwellige psychosoziale Unterstützung, etwa über Online-Beratung, muss ausgebaut werden. Früherkennung problematischer Nutzung in Schulen und Jugendeinrichtungen sowie evidenzbasierte Behandlungsangebote für Digitale-Medien-Nutzungsstörungen sind notwendig.
Beteiligung von Kindern und Jugendlichen: Gemäß Artikel 12 der UN-Kinderrechtskonvention müssen Kinder und Jugendliche systematisch in Regulierungsprozesse einbezogen werden. Ihre Perspektiven als Betroffene sind für wirksame Schutzmaßnahmen unverzichtbar. Forschung sollte mit und nicht über Kinder und Jugendliche zu ihren Bedürfnissen und Erfahrungen durchgeführt werden.
Bildung und Befähigung: Ein effektiver Schutz von Kindern und Jugendlichen im digitalen Raum braucht nicht nur gesetzliche Regelungen, sondern auch umfassende Bildungsarbeit. Medienbildung muss integraler Bestandteil der schulischen und außerschulischen Bildungslandschaft sein und darf nicht bei den Kindern und Jugendlichen enden. Besonders wichtig sind folgende Aspekte:
- Kinder und Jugendliche brauchen altersgerechte und kontinuierliche medienpädagogische Begleitung, die ihnen hilft, digitale Inhalte kritisch zu hinterfragen, ihre eigenen Grenzen zu erkennen und sichere Kommunikationswege zu nutzen sowie Datenschutzbewusstsein zu entwickeln. Peer-Education-Ansätze, bei denen junge Menschen als Multiplikator*innen wirken, haben sich als besonders wirksam erwiesen.
- Eltern und Erziehungsberechtigte benötigen niederschwellige, praxisnahe Informationen und Schulungen, um ihre Kinder im digitalen Alltag kompetent begleiten zu können. Vielen fehlen Wissen, Orientierung und Handlungssicherheit. Daher sollten ihnen leicht zugängliche Beratungsangebote zur Verfügung stehen.
- Lehrkräfte und pädagogische Fachpersonen sind zentrale Bezugspersonen. Sie benötigen strukturell verankerte Fortbildungen und Unterstützungsangebote, um in Schule, Jugendhilfe und Freizeitpädagogik digitale Schutz- und Lernräume mitgestalten zu können.
- Multiplikator*innen im Gesundheits-, Sozial- und Bildungsbereich sollten in der Lage sein, Risiken digitaler Medien zu erkennen, Kinder und Jugendliche zu stärken und Eltern kompetent zu beraten.
Medienbildung ist ein kontinuierlicher Prozess, der sowohl Prävention als auch Intervention umfasst. Sie darf nicht allein auf Technikvermittlung beschränkt sein, sondern muss ethische, soziale und entwicklungspsychologische Fragen mitdenken.
Beispielhafte Maßnahmen für Kinder und Jugendliche:
- Workshops ab dem Volksschulalter, in denen spielerisch vermittelt wird, wie Werbung, Fake News und manipulative Inhalte funktionieren (z. B. ein „Detektivspiel“ zum Aufdecken von Desinformation).
- Peer-Projekte an Schulen, in denen ältere Schüler: innen jüngeren vermitteln, wie man Privatsphäre schützt, Cybermobbing erkennt und mit Gruppenzwang in sozialen Medien umgeht.
- Digitale Klassenregeln (z. B. gemeinsam erarbeitete Umgangsformen in WhatsApp-Gruppen oder bei der Nutzung von Schul-iPads), die das Bewusstsein für Kommunikation, Respekt und Pausen stärken.
- Digitale Selbstreflexionstage mit Fragen wie: „Wie fühle ich mich nach 1 Stunde TikTok?“, „Wie wirkt ein perfektes Selfie auf mein Selbstbild?“ – mit Raum für Austausch und Entlastung.
Beispielhafte Maßnahmen für Eltern und Erziehungsberechtigte:
- Elternabende oder Elterncafés mit kurzen Inputs von Medienpädagog*innen und viel Raum für Fragen, Unsicherheiten und Alltagssituationen („Was tun, wenn mein Kind nachts am Handy ist?“).
- Infokarten oder Kurzvideos in einfacher Sprache, z. B. über „Einstellungen für mehr Sicherheit auf Instagram“, „Wie erkenne ich gefährliche Challenges?“ oder „Was ist ein gesundes Bildschirmverhalten?“
- Begleitbroschüren zu Elterngesprächen im Kindergarten oder Schuleingangsphase, um über Medienkonsum ins Gespräch zu kommen.
- Angebot einer Mediensprechstunde oder Onlineberatung, wo Eltern individuelle Anliegen besprechen können.
Beispielhafte Maßnahmen für Lehrkräfte und pädagogische Fachpersonen:
- Verpflichtende Module zur digitalen Resilienz im Rahmen der Lehrer: innen Ausbildung (z. B. zu digitaler Gewalt, Sexting, Cybergrooming).
- Pädagogische Tage mit externen Expert: innen zu Themen wie: „Digitale Selbstwirksamkeit fördern“, „Online-Risiken frühzeitig erkennen“ oder „Mit Eltern über digitale Themen ins Gespräch kommen“.
- Kooperation mit Schulsozialarbeit oder Jugendservices, um regelmäßig Inputs in den Unterricht zu holen.
- Digitale Schutzkonzepte für Schulen und Horte, die klare Handlungsanleitungen für Krisen (z. Mobbingvideos) und präventive Maßnahmen enthalten
Beispielhafte Maßnahmen für Multiplikator: innen im Gesundheits-, Sozial- und Bildungsbereich:
- Interdisziplinäre Fortbildungen für Fachkräfte, z. B. zu: „Digitale Gewalt erkennen und ansprechen“, „Soziale Medien als Risikofaktor in der psychischen Gesundheit“.
- Handreichungen für Beratungsgespräche, z. B. Checklisten für psychosoziale Einrichtungen: „Was sollte ich Jugendliche fragen, wenn sie mit Problemen rund ums Internet kommen?“
- Kampagnen zur Sensibilisierung in Gesundheitszentren oder auf Jugendplattformen, mit Fokus auf: „Digitale Balance“, „Sicher kommunizieren“ oder „Sich selbst schützen im Netz“.
- Netzwerktreffen regionaler Einrichtungen, um Best-Practice-Beispiele auszutauschen und gemeinsam Handlungsstrategien zu entwickeln.
Fazit und Position
Der Bundesverband der Österreichischen Kinderschutzzentren tritt für eine Gesellschaft ein, in der alle Kinder und Jugendlichen sicher, gesund und in Würde aufwachsen können. Dieser Anspruch gilt auch und gerade im digitalen Raum. Kinder und Jugendliche haben das Recht auf Schutz, Förderung und Teilhabe – offline wie online.
Die Realität sozialer Medien entspricht diesem Anspruch derzeit nicht. Der Bundesverband der Österreichischen Kinderschutzzentren sieht es daher als seine Verantwortung, auf Risiken hinzuweisen, politische Maßnahmen zu fordern und aktiv zur Bewusstseinsbildung beizutragen. Unsere Haltung ist geprägt von entwicklungspsychologischem Wissen, sozialpädagogischer Praxis und menschenrechtlichen Grundsätzen.
Wirksamer Kinderschutz im digitalen Raum erfordert einen Paradigmenwechsel: Die Verantwortung darf nicht primär auf Kinder, Jugendliche und Eltern abgewälzt werden. Vielmehr müssen die Geschäftsmodelle und Design-Mechanismen der Plattformen so reguliert werden, dass sie das Wohl von Kindern und Jugendlichen priorisieren, nicht die Maximierung von Reichweite und Profit. Begleitend braucht es massive Investitionen in Bildung, Befähigung und Unterstützungsangebote. Nur so kann ein digitales Umfeld geschaffen werden, in dem junge Menschen sicher aufwachsen, ihre Rechte wahrnehmen und sich bestmöglich entfalten können.
Deshalb sprechen wir uns mit Nachdruck für folgende Maßnahmen aus:
Unsere Forderungen
- Mindestalter von 16 Jahren für die Nutzung sozialer Medien und 14 Jahre für Messenger-Dienste
- Verlässliche technische Zugangskontrollen und Altersverifikation
- Strenge gesetzliche Vorgaben auf Basis des Digital Services Act
- Nachhaltige, lebensweltorientierte Medienbildung für Kinder, Jugendliche, Eltern und Fachkräfte
- Ein gesellschaftlicher Rahmen, der digitale Räume sicher, gerecht und entwicklungsfördernd gestaltet