Kinder im digitalen Raum: Datenschutz, Selbstbestimmung und die Verantwortung der Plattformen

06. Februar 2026

Im Februar 2024 hatte die EU-Kommission ein formales Verfahren gegen TikTok nach dem Digital Services Act (DSA) eingeleitet. 

Die Europäische Kommission hat heute vorläufig festgestellt, dass das TikTok-Design wegen seiner suchterzeugenden Wirkung gegen das Gesetz über digitale Dienste verstößt. Dazu gehören Funktionen wie unendliches Scrollen, Autoplay, Push-Benachrichtigungen und das hochgradig personalisierte Empfehlungssystem.

TikTok erhält jetzt erneut die Möglichkeit zur Stellungnahme. Bestätigt sich der Vorwurf, kann eine Geldbuße bis zu 6 % des weltweiten Jahresumsatzes verhängt werden. 

Die Bedeutung dieser Entscheidung für Kinder und Jugendliche wird besonders deutlich, wenn man die Nutzung von TikTok unter jungen Menschen betrachtet: Laut der JIM-Studie 2025 ist TikTok die viertwichtigste App der Befragten. 

Vor wenigen Wochen haben wir beim DatenTag über die Rechte von Kindern und Jugendlichen im digitalen Raum diskutiert. Expert*innen betonten, dass Kinder und Jugendliche genau wie Erwachsene ein Recht auf informationelle Selbstbestimmung besitzen – ein Bestandteil des Datenschutz-Grundrechts. Statt durch Überwachung, Einschränkungen und Verbote sollte das Freiheitsversprechen nicht ausgehebelt werden und junge Menschen sollten in Entscheidungen einbezogen werden.

Die rechtlichen Schritte gegen TikTok und die Inhalte des DatenTags zeigen denselben übergeordneten Trend: Schutz von Kindern und Jugendlichen darf nicht allein auf Eltern, Schulen oder die Kinder selbst abgewälzt werden. Die Probleme im Netz sind von Erwachsenen gemacht. Die Lösung kann daher nicht sein, die Rechte und Freiheiten von jungen Menschen einzuschränken, denn dem suchterzeugenden Design und der Konfiguration von TikTok sind alle Menschen ausgesetzt.