Neuigkeiten

Schutz von Daten von Kindern und Jugendlichen: Welche politischen Maßnahmen sind 2026 geplant?

16. Februar 2026
Schutz von Daten von Kindern und Jugendlichen: Welche politischen Maßnahmen sind 2026 geplant?

Der Schutz personenbezogener Daten von Kindern und Jugendlichen ist 2026 eines der zentralen Themen im europäischen und deutschen Datenschutzrecht. Diskutiert werden verbindliche Altersgrenzen für soziale Medien, verpflichtende Altersverifikationen und strengere Privacy-by-Design-Vorgaben für Plattformen. Gleichzeitig stehen Grundrechte wie informationelle Selbstbestimmung und digitale Teilhabe im Fokus.

Der Beitrag gibt einen strukturierten Überblick über die aktuellen politischen Debatten, geplante Gesetzesänderungen und die zentralen Konfliktlinien zwischen Kinderschutz und Datenschutz.


Rechtsgrundlage: Datenschutz für Kinder im europäischen Rahmen

Die Verarbeitung personenbezogener Daten von Minderjährigen unterliegt bereits heute der Datenschutz-Grundverordnung. Nach Art. 8 DSGVO dürfen Kinder unter 16 Jahren in Bezug auf „Dienste der Informationsgesellschaft“ grundsätzlich nur mit Zustimmung der Eltern einwilligen – wobei Mitgliedstaaten die Altersgrenze auf 13 Jahre absenken können.

Ergänzend verpflichtet der Digital Services Act (DSA) Plattformanbieter in Art. 28 dazu, ein „hohes Maß an Privatsphäre, Sicherheit und Schutz“ für Minderjährige sicherzustellen. Seit 2023 gelten diese Vorgaben verbindlich für große Online-Plattformen.

Daneben spielen weitere europäische Regelwerke eine Rolle:

  • eIDAS-Weiterentwicklung (EU Digital Identity Wallet)

  • geplante CSA-Verordnung („Chatkontrolle“)

  • Digital Fairness- und Omnibus-Initiativen

Der gesetzliche Rahmen ist also vorhanden – die aktuelle Debatte dreht sich um seine Verschärfung und Konkretisierung.


Politische Debatten auf EU-Ebene

Forderung nach EU-weitem Mindestalter

Im November 2025 forderte das Europäisches Parlament ein einheitliches Mindestalter von 16 Jahren für soziale Medien. Zwischen 13 und 16 Jahren soll eine Nutzung nur mit elterlicher Zustimmung möglich sein.

Die Europäische Kommission prüft parallel ein generelles Social-Media-Verbot für unter 16-Jährige. Hintergrund sind Studien zu Cybermobbing, Suchtmechanismen und algorithmischer Verstärkung schädlicher Inhalte.

EU-Altersverifikations-App

Ein zentrales Projekt ist die Entwicklung einer Altersverifikationslösung im Rahmen der EU-Digital-Wallet. Ziel ist eine datensparsame Altersprüfung mittels sogenannter Zero-Knowledge-Proofs. Dabei soll lediglich bestätigt werden, dass eine Person eine Altersgrenze überschreitet – ohne weitere personenbezogene Daten offenzulegen.

Befürworter sehen darin einen datenschutzfreundlichen Kompromiss. Kritiker warnen vor:

  • faktischer ID-Pflicht im Internet

  • Protokollierungspflichten

  • Zentralisierung sensibler Identitätsdaten


Deutschland: Social-Media-Verbote und „Jugendversionen“

Auch auf nationaler Ebene verschärft sich die Debatte.

SPD-Vorschlag: Verbot unter 14 Jahren

Ein Anfang 2026 veröffentlichtes Positionspapier der SPD fordert:

  • Social-Media-Verbot für unter 14-Jährige

  • verpflichtende „Jugendversionen“ für 14–15-Jährige

  • Altersverifikation über die EU-Digital-Wallet

Jugendversionen sollen ohne algorithmische Feeds, Endlos-Scrollen oder Push-Suchtmechanismen auskommen.

CDU-Unterstützung

Auch Stimmen aus der CDU signalisieren Offenheit für Altersbeschränkungen nach australischem Vorbild.

Reformvorschläge der Datenschutzkonferenz

Die Datenschutzkonferenz (DSK) veröffentlichte im Februar 2026 zehn Reformvorschläge zur Stärkung des Kinder-Datenschutzes. Zentrale Punkte:

  • Verbot von Profiling bei Minderjährigen

  • keine Einwilligung bei besonders sensiblen Daten

  • verpflichtendes Privacy-by-Design für Kinderangebote

  • klare Voreinstellungen („private by default“)


Internationale Entwicklungen

Vereinigtes Königreich

Mit dem Online Safety Act führte das Vereinigte Königreich 2025 umfassende Altersverifikationspflichten ein. Plattformen müssen das Alter u.a. mittels Passfoto oder Kreditkartenprüfung kontrollieren.

Folge: Deutlicher Anstieg der VPN-Nutzung und Debatten über biometrische Datenbanken.

Australien

Australien führte 2024 als erstes Land ein Social-Media-Mindestalter von 16 Jahren ein. Das Modell gilt als politisches Signal, ist technisch jedoch umstritten und leicht umgehbar.

Frankreich

Frankreich verpflichtete Pornografie-Plattformen 2023 zur Altersverifikation unter Aufsicht der CNIL. Hier werden verstärkt kryptografische Nachweismethoden getestet.


Technische Altersverifikation: Chancen und Risiken

Drei Modelle dominieren die Diskussion:

  1. Biometrische Schätzung (Gesichtserkennung)
    Hohe Genauigkeit, aber erhebliche Datenschutzrisiken.

  2. Kryptografische Altersnachweise (Zero-Knowledge-Proofs)
    Datensparsam, jedoch mit Identitätsprüfung im Hintergrund verbunden.

  3. Verhaltensbasierte Schätzungen
    Unpräzise und potenziell diskriminierend.

Zentrale Kritikpunkte:

  • Aufbau zentraler Dateninfrastrukturen

  • Sicherheitsrisiken bei Datenlecks

  • Gefahr eines „Mission Creep“ über den Kinderschutz hinaus

  • Umgehbarkeit durch VPN oder falsche Angaben


Privacy-by-Design als Alternativmodell

Statt Verbote zu fokussieren, setzen viele Behörden auf strukturelle Designvorgaben:

  • Private Profile als Standard

  • Deaktivierte Ortungsdienste

  • Kein personalisiertes Profiling

  • Keine manipulativen „Dark Patterns“

  • Keine algorithmischen Empfehlungsfeeds ohne aktive Entscheidung

Der Grundgedanke: Nicht das Kind soll sich schützen müssen – sondern das System muss kindersicher sein.


Grundrechtskonflikt: Schutz vs. Teilhabe

Kinder sind Grundrechtsträger. Neben Schutzrechten besitzen sie auch:

  • Recht auf Meinungsfreiheit

  • Recht auf Information

  • Recht auf soziale Teilhabe

Ein pauschales Social-Media-Verbot könnte daher unverhältnismäßig sein. Gleichzeitig zeigen Studien erhebliche Risiken durch Cybermobbing, Suchtmechanismen und Datenmissbrauch.

Die zentrale Frage lautet daher:

Wie kann ein effektiver Schutz gestaltet werden, ohne digitale Teilhabe strukturell einzuschränken?


Praktische Auswirkungen für Plattformen und Unternehmen

Unternehmen müssen sich bereits jetzt auf strengere Vorgaben einstellen:

  • Implementierung datensparsamer Altersprüfungen

  • Überarbeitung von Designstrukturen

  • Anpassung von Werbe- und Profiling-Modellen

  • Durchführung spezieller Risikoanalysen für Minderjährige

Insbesondere internationale Plattformbetreiber stehen vor komplexen Compliance-Herausforderungen, da unterschiedliche Länder divergierende Anforderungen stellen.


Fazit: Trend zu stärkerem Schutz – aber kein Konsens über den Weg

Die politische Entwicklung zeigt klar: Der Datenschutz für Kinder und Jugendliche wird verschärft. Altersgrenzen, Altersverifikation und Privacy-by-Design stehen im Mittelpunkt.

Offen bleibt jedoch:

  • Wird es ein EU-weites Social-Media-Mindestalter geben?

  • Wie datenschutzfreundlich wird die EU-Alters-App tatsächlich sein?

  • Welche Rolle spielt die geplante Chatkontrolle?

Sicher ist: Der Schutz von Kindern im digitalen Raum bleibt ein Spannungsfeld zwischen Sicherheit, Datenschutz und Grundrechten. Die kommenden Gesetzgebungsverfahren auf EU- und nationaler Ebene werden hier entscheidende Weichen stellen.