Diese Webseite verwendet Session-Cookies, die gelöscht werden, sobald Sie die Seite wieder verlassen oder den Browser schliessen.
Wenn Sie durch unsere Seiten surfen, erklären Sie sich mit der Cookie-Nutzung einverstanden.
Mehr Informationen Okay

Direkt zum Seiteninhalt springen - Tastenkürzel 2 Direkt zum Hauptmenü springen - Tastenkürzel 1 Direkt zur Suche springen - Tastenkürzel 5

FOKUS


Veröffentlicht am 21.09.17

Zeitgemäßer Jugendschutz im Internet

Jutta Croll

Jugendschutz muss alle Lebensbereiche von Kindern umfassen, einen sicheren Alltag in der realen Umwelt ebenso wie ein gutes Aufwachsen mit Medien. Der in den Artikeln 19 sowie 34 und 36 der UN-Kinderrechtskonvention geforderte Schutz von Kinder vor Gewalt, sexuellem Missbrauch und Ausbeutung muss daher heute im Hinblick auf Risiken, die durch das Internet entstehen oder verstärkt werden können, neu interpretiert und angewandt werden. Aber wie kann zeitgemäßer Jugendschutz im Internet aussehen? Was sind die Voraussetzungen dafür, dass Kinder das Internet für Information und Teilhabe, Lernen und Spiel nutzen können, ohne unangemessenen Gefährdungen ausgesetzt zu sein? Und welche Rolle spielt dabei der Schutz der Daten von Kindern und Jugendlichen?

In den Anfangsjahren des Internets galten Filterprogramme als geeignetes Instrument. Software, die mit Hilfe von Wortlisten bestimmte Inhalte identifiziert und den Zugang dazu sperrt, wurde zunächst aber nicht vorrangig für den Schutz von Kindern vor gewalthaltigen oder pornographischen Bildern und Texten entwickelt. Sie diente vielmehr schon damals in Unternehmen dazu, die unerwünschte Nutzung bestimmter Webseiten durch die Mitarbeitenden während der Arbeitszeit zu verhindern. Die Filterung der Inhalte erfolgt auf der Basis von Wortlisten einerseits und URL- oder Domainnamenlisten andererseits. Diese Art von Filterprogrammen wurde jedoch von Beginn an vom Vorwurf der Zensur begleitet. Die im Interesse des Jugendschutzes berechtigte Verhinderung des Zugangs wurde als mögliches Einfallstor für eine weiterreichende Einschränkung des Rechts auf Informationsfreiheit angesehen.

Die Debatte, ob die Filterung von Inhalten ein angemessenes Instrument für einen zeitgemäßen Jugendschutz darstellt, spiegelt sich auch in der im zeitlichen Verlauf sich ändernden Bezeichnung entsprechender Softwareprodukte wider. In dem 2005 veröffentlichen Beschluss des europäischen Parlaments u¨ber ein mehrjähriges Gemeinschaftsprogramm zur Förderung der sichereren Nutzung des Internets und neuer Online-Technologien (854/2005/EG) werden Filtertechnologien als Instrument zur Bekämpfung unerwünschter und schädlicher Inhalte (filtering technologies for tackling unwanted and harmful content) ausdrücklich so benannt. Mit der Umsetzung des Gemeinschaftsprogramms wurde von der Europäischen Kommission unter dem Titel SIP Benchmark ein vergleichendes Testverfahren für diese Technologien ausgeschrieben und beauftragt. Dem in 2009 von Deloitte vorgelegten ersten Benchmark Report folgte eine erneute Ausschreibung durch die Kommission im gleichen Jahr. Darin wurden die zu evaluierenden Softwareprodukte nun als „Parental Control Tools“, d. h. als Instrumente der elterlichen Kontrolle bezeichnet, was die Assoziation mit der Zensur von Inhalten deutlich weniger nahelegt. Gleichzeitig wurde mit dieser neuen Bezeichnung der elterlichen Verantwortung für den Schutz der Kinder bei der Internetnutzung eine höhere Priorität gegeben. Die Untersuchungen der beiden folgenden Benchmarks, SIP II und SIP III, wurden daher stärker darauf ausgerichtet, Eltern und andere pädagogisch verantwortliche Personen bei dieser Erziehungsaufgabe zu unterstützen. Neben der Filterwirkung wurde auch geprüft, ob die Programme leicht zu umgehen sind, welche Funktionalitäten sie zusätzlich zur Filterung bieten und wie gut die Bedienbarkeit ist. Eine gute Filterwirkung konnte bei vielen Produkten nur für englischsprachige Inhalte mit sexueller Konnotation bescheinigt werden; gewalthaltige oder sonstige problematische Inhalte werden weniger gut von den Programmen erkannt, vielfach werden auch erwünschte Inhalte von den Programmen blockiert. Parallel zu Bemühungen, die Filterleistung zu verbessern, haben die Hersteller ihre Produkte auch technisch weiterentwickelt und um Funktionalitäten, wie Kontrolle und Einschränkung von Nutzungszeiten oder Monitoring des Nutzungsverhaltens - auch remote über ein zweites Endgerät in den Händen der Eltern - erweitert.

Ab Mitte der 2000er Jahre entstanden neue Möglichkeiten der Kommunikation und Gestaltung von Inhalten über das Internet, die als Web 2.0 bezeichnet und unter dem Stichwort ‚User Generated Content’ diskutiert wurden. Heute sind es vor allem Social-Media-Anwendungen, die die Plattformen für Interaktionen von Nutzerinnen und Nutzern bereitstellen. Technische Jugendschutzprogramme, die Inhalte auf der Basis von Wort- und Domainlisten filtern, können jedoch weder den großen Mengen an von den Nutzerinnen und Nutzern selbst generierten Inhalten gerecht werden, noch sind sie in der Lage, die daraus resultierenden Interaktionsrisiken umfassend zu adressieren. Hierin liegt ein neues Gefährdungspotenzial für Kinder, das eine große Herausforderung für den zeitgemäßen Jugendschutz im Internet darstellt. Die technischen Schutzinstrumente kommen mit der rasanten Innovation digitaler Anwendungen häufig nicht schnell genug mit.

Die UN-Kinderrechtskonvention gibt mit den Formulierungen in Artikel 3 dem Kindeswohl oberste Priorität bei allen Entscheidungen, die das Kind betreffen. Artikel 5 verpflichtet die Vertragsstaaten dazu, das Elternrecht zu respektieren und formuliert gleichzeitig an die für die Erziehung des Kindes verantwortlichen Personen den Anspruch, „das Kind bei der Ausübung der in diesem Übereinkommen anerkannten Rechte in einer seiner Entwicklung entsprechenden Weise angemessen zu leiten und zu führen.“ Für viele Erziehungsverantwortliche ist es ausgesprochen schwierig zu entscheiden, was eine der Entwicklung des Kindes entsprechende Weise des angemessenen Leitens und Führens in Bezug auf die Internetnutzung des Kindes bedeutet. Das I-KiZ - Zentrum für Kinderschutz im Internet hat sich mit dieser Frage befasst und das Modell des Intelligenten Risikomanagements entwickelt. Zeitgemäßer Jugendmedienschutz stützt sich auf die drei Säulen ‚Gestaltung der Angebote’, ‚Technische Instrumente des Jugendschutzes’ und ‚Medienkompetenz’. Je nach Alter des Kindes sind diese Säulen unterschiedlich tragfähig. Für jüngere Kinder können technische Instrumente eine höhere Schutzwirkung entfalten, mit zunehmendem Alter wächst die Medienkompetenz und es steigt die Eigenverantwortlichkeit. Für Jugendliche sollte die Fähigkeit zum Selbstrisikomanagement durch medienpädagogische Maßnahmen entwickelt und durch die Gestaltung der Angebote unterstützt werden. Wozu Kinder und Jugendliche ab welchem Alter selbstständig in der Lage sind, welche Entscheidungen sie treffen und welche Risiken sie abwägen können, ist individuell unterschiedlich und von den persönlichen Voraussetzungen abhängig. Gerade im Hinblick auf das Internet und die Nutzung digitaler Medien ist es daher erforderlich, Eltern Orientierung zu bieten. Vielfach sind sie mit den digitalen Angeboten, mit der Nutzung von Social-Media-Plattformen und digitalen Diensten weniger vertraut als ihre Kinder und benötigen daher nicht nur technische Schutzinstrumente, sondern auch pädagogische Empfehlungen als Leitplanken für die Sicherheit.

Am 25. Mai 2018 tritt in Europa die Datenschutz-Grundverordnung (EU-DSGVO) in Kraft, die die Erfassung, Speicherung und Verarbeitung personenbezogener Daten regelt. In Erwägungsgrund 38 wird erstmals der besondere Schutzbedarf von Kindern in Bezug auf ihre Daten anerkannt. Art. 8 regelt dementsprechend die Bedingungen für die Einwilligung eines Kindes in Bezug auf Dienste der Informationsgesellschaft. Für Kinder, die das sechzehnte Lebensjahr noch nicht vollendet haben, ist mit Inkrafttreten der DSGVO die Einwilligung der Eltern in die Nutzung von „Diensten der Informationsgesellschaft, die direkt einem Kind gemacht werden“, erforderlich. Gleichzeitig räumt die DSGVO den EU-Mitgliedsstaaten ein, durch nationalstaatliche Rechtsvorschriften eine niedrigere Altersgrenze festzulegen, die jedoch nicht unter dem vollendeten dreizehnten Lebensjahr liegen darf. Überall in Europa befassen sich inzwischen Menschen aus dem Bereich der Medienpädagogik, der Medienwissenschaft und des Datenschutzes sowie der Technik zur Authentisierung und Altersverifikation damit, welche Altersgrenze sinnvoll und angemessen erscheint. Das Projekt kinderrechte.digital und die Koordinierungsstelle Kinderrechte beim Deutschen Kinderhilfswerk führen derzeit Gespräche mit Expertinnen und Experten, um eine Wissensbasis zu den durch die DSGVO aufgeworfenen verschiedenen Fragen in Bezug auf Kinderschutz und Kinderrechte aufzubauen. Damit wollen wir einen Beitrag zu einem zeitgemäßen Jugendschutz im Internet leisten und ein Stück Leitplanke für die Sicherheit von Kindern im Internet bereitstellen. Über die Ergebnisse werden wir Sie hier auf dem Laufenden halten - stay tuned!