Altersverifikation für alle
16. April 2026Kinder und Jugendliche sollen frei und unbeschwert aufwachsen. Sie sollen Regeln lernen und eine eigene Persönlichkeit entwickeln. Dies alles sind grundlegende Ideale für das Aufwachsen in einer freiheitlichen Demokratie.
Der Schutz von Kindern ist in vielen Verfassungen verankert. Kinder und Jugendliche haben gemäß der UN-Kinderrechtskonvention eigene Rechte. Das ist gut so. Seit einiger Zeit wird das Schutzargument aber als Rechtfertigung für Überwachungsmaßnahmen (z. B. bei der sog. Chatkontrolle) genutzt und die Frage diskutiert, ob Kindern zu ihrem (vermeintlichen) Schutz die Teilnahme an Online-Angeboten wie beispielsweise Sozialen – richtiger: Gesellschaftlichen – Medien, verwehrt, ja verboten werden soll. Ob ein solches Verbot tatsächlich sinnvoll ist, ist bislang nicht nachweisbar. Zwar hatte ein Diskussionspapier der vom Bund und dem Land Sachsen-Anhalt finanzierten Wissenschaftsgesellschaft Leopoldina ein Social-Media-Verbot als Maßnahme aufgezählt, doch die eigentlichen Gefahren werden im Geschäftsmodell der Big-Tech-Unternehmen verortet.
Während die Europäische Kommission vormals ein „Besseres Internet für Kinder“ (BIK+) angestrebt hatte, und ihren Schutz im Digital Services Act (DSA), im Artificial Intelligence Act (AI Act) und in der DSGVO verankert hat, geht es der gegenwärtigen Kommission nicht mehr darum, digitale Dienste zu reglementieren, sondern bevorzugt restriktive Maßnahmen wie Verbote, während grundlegende Schutzvorkehrungen durch die Vorschläge im „Digitalen Omnibus“-Entwurf aufgeweicht werden. Statt jungen Menschen Hilfestellungen an die Hand zu geben und die gesellschaftlich schädlichen Auswirkungen von Diensten (z. B. das „infinite scrolling“), an ihrer Wurzel, nämlich bei den Diensten und ihren Algorithmen selbst anzugehen soll jungen Menschen der Zugang mittels einer Altersbeschränkung verwehrt werden. Kinder und Jugendliche sollen erst ab einem bestimmten Alter – diskutiert wird eine Grenze teils ab 13 und teils ab 15 Jahren – Online-Angebote wie TikTok nutzen dürfen. Um dieses Verbot durchzusetzen, soll auf technische Lösungen wie die Altersverifikation zurückgegriffen werden. So schwebt es auch der deutschen Regierungskoalition vor. Doch Erfahrungen des Vorreiters Australiens zeigen bereits, dass eine restriktive Lösung nicht zum Erfolg führt.
Technik löst keine sozialen Probleme.
Bei der Altersverifikation, dem Nachweis des Alters einer Person, soll mithilfe einer technischen Lösung wie einer App das Alter einer Person festgestellt oder nachgewiesen werden. Es scheint sich um eine einfache Lösung zu handeln, junge Menschen vor schädlichen Inhalten zu schützen. Doch ganz so einfach ist es nicht. Zunächst betrifft eine Bestimmung des Alters alle internetnutzenden Personen. In der Regel ist dazu ein Ausweisdokument erforderlich. In der Online-Welt muss das Dokument – abhängig von der technischen Lösung – mindestens ausgelesen werden. Weitere Nachweise können durch die Erfassung biometrischer Merkmale anhand derer das Alter geschätzt werden kann, erbracht werden. Rechtsgrundlage dafür ist Art. 28 DSA.
Nach Vorstellung der Europäischen Kommission sollen Menschen in der EU künftig mit einer Handy-App für iOS und Android ihr Alter gegenüber Plattformen nachweisen. Dafür ist es erforderlich, dass mit der App das Gesicht und der Pass oder Personalausweis gescannt werden. Soll das Internet weiterhin wie gewohnt genutzt werden, wird dazu zukünftig eine solche App erforderlich sein. Die Alterskontroll-App soll dann sicherstellen, dass die geforderte Altersgrenze für ein Angebot erreicht ist. Der Code für die App ist von T-Systems und dem schwedischen Unternehmen Scytáles entwickelt worden. Zur Verfügung steht im April 2026 nur der Code, noch nicht die App.
Auch wenn die erhobenen Pass- und biometrischen Daten nur in der App verarbeitet werden, so kann allein die Anforderung von biometrischen Verfahren das Vertrauen in digitale Angebote untergraben, berichtet Netzpolitik.org. Es bleibt für die Nutzenden oftmals undurchschaubar, ob eine App „nach Hause telefoniert“ und andere Dienste darauf zugreifen können. Zudem zeigen die Erfahrungen mit der Covid-Pandemie, dass sich schnell ein Ökosystem für falsche Nachweise entwickeln kann, das für Internetnutzende eine vermeintlich einfache Alternative darstellen kann.
Das Versprechen der Kommission: Die Verifizierung mit der App erfolge vollständig anonym, die Nutzenden können nicht getrackt werden und der Code sei Open Source.
Doch was sind die individuellen und gesellschaftlichen Folgen der Einführung?
Die Altersüberprüfung verlagert die Verantwortung von der Plattform auf die Nutzenden. Die Tech-Unternehmen werden dadurch von ihrer Verantwortung für ihre Dienste und den Schaden, den sie damit anrichten, freigestellt. Schlimmer noch, die schädlichen Praktiken werden durch die Altersverifikation legitimiert und benachteiligen dadurch die Nutzenden, die mit diesen Praktiken konfrontiert werden.
Altersverifikationen aufgrund eines Social-Media-Verbot schließt junge Menschen von der Teilhabe an einem gesellschaftlich relevanten Bereich aus. Nicht alle Dienste im Internet sind für junge Menschen schädlich. Viele Dienste bieten Inhalte, die Wissen auch in die entlegensten Regionen und ohne hohe Zugangshürden vermitteln. Informationen können abgerufen werden, ohne eine Bibliothek aufsuchen zu müssen. Freunde und Bekannte können einfach kontaktiert und Fotos versendet werden. Die suchtfördernden Mechanismen und Designs, Mobbingangriffe, personalisierte Ansprachen und Belästigungen durch Erwachsene („Grooming“) werden jedoch durch Verbote und Alterskontrollen nicht beseitigt. Vielmehr werden die betroffenen Kinder und Jugendlichen weiter in einen Graubereich verdrängt, wenn sie trotz Verbotes altersbeschränkte Dienste nutzen würden und den schädlichen Auswirkungen ausgesetzt wären.
Die Plattformen, die schädliche und illegale Inhalte anbieten, werden sich kaum an die Regeln halten und werden daher für Kinder und Jugendliche weiterhin abrufbar und attraktiv sein. Kinder und Jugendliche, die weiterhin die bald für sie verbotenen Dienste nutzen, werden noch stummer gemacht, weil Hilfe für sie nicht vorgesehen ist. Das Ergebnis: Noch weniger Schutzmaßnahmen als zuvor.
Mobbing ist kein spezifisches Problem von Plattformen, sondern findet im Alltag von Gleichaltrigen in der Schule und Freizeit statt. Weder Mobbing noch Cybermobbing kann „per Knopfdruck“ durch eine App beendet werden.
Suchtförderndes Design soll im geplanten Digital Fairness Act geregelt werden und betrifft nicht nur sehr junge Menschen. Werden diese Mechanismen eingeschränkt oder untersagt, hilft dies allen Menschen. Eine Altersunterscheidung ist nicht notwendig.
Eine Kontaktaufnahme von Erwachsenen mit Minderjährigen im Netz („Grooming“) lässt sich bereits über geeignete technische Voreinstellungen verhindern. Gerade Plattformen, die für Kinder und Jugendliche frei sind, sind der Ort, der von Erwachsenen genutzt wird, um Kontakte zu knüpfen. Es ist wichtig, dass Kinder frühzeitig Kompetenzen erlangen, um bestimmte Risiken zu umgehen und zu lernen, wie und wo sie Hilfe bekommen. Dafür müssen niederschwellige Hilfsangebote bestehen.
Wissenschaftliche Kritik an Social-Media-Verboten
Im März 2026 haben über 400 Forschende aus den Bereichen IT-Sicherheit und Datenschutz in einem offenen Brief vor den Gefahren eines Social-Media-Verbots gewarnt. Sie betonen die Gefahren, die von einem solchen Verbot in Verbindung mit einer Altersverifikation einhergehen. Ausweiskontrollen im Internet seien nicht mit solchen in der Offline-Welt vergleichbar, da sie stets Spuren hinterlassen. Alle Nutzenden, nicht nur junge Menschen, müssten ihr Alter nachweisen, um mit Freunden und Familie zu kommunizieren, Nachrichten zu lesen oder nach Informationen zu suchen; dies gehe weit über das hinaus, was jemals in unserem Offline-Leben der Fall war, so die Forschenden. Sie befürchten, dass durch die Zugangskontrollen eine Infrastruktur geschaffen wird, die dazu missbraucht werden könnte, den Zugang zu Internetdiensten aus Gründen zu sperren, die nichts mehr mit der Sicherheit für Kinder zu tun haben. Während Altersverifikationen leicht zu umgehen seien, könnten solche Maßnahmen sogar die Online-Sicherheit für alle beeinträchtigen, wenn Nutzende auf Dienste ausweichen, die keine Verifikation erfordern und dadurch Malware und Betrugsversuchen ausgesetzt sein könnten. Zudem würde die Verpflichtung Menschen ausschließen, die nicht über ein Ausweisdokument oder Smartphone verfügen. Die Altersverifikation berge daher ein großes Potential, Ungleichheit und Diskriminierung im digitalen Raum zu verstärken.
Struktureller Schutz statt Ausschluss
Für viele Kinder und Jugendliche ist das Internet ein Raum für Begegnung und Wissensaustausch. Anstatt sie davon auszuschließen, sollte dieser Raum gestärkt werden – durch strukturelle Schutzmaßnahmen, die die digitale Umgebung sicherer machen und sich stärker am Gemeinwohl ausrichten. Außerdem gilt es, die Ursachen sozialschädlicher Entwicklungen zu bekämpfen, etwa übermäßige Profit- und Überwachungsinteressen.