Direkt zum Seiteninhalt springen - Tastenkürzel 2 Direkt zum Hauptmenü springen - Tastenkürzel 1 Direkt zur Suche springen - Tastenkürzel 5

FOKUS


  • Veröffentlicht am 15.11.23

    Konsultation zum Jugendmedienschutz-Staatsvertrag

    Torsten Krause, SDC

    Bereits im Frühjahr 2022 haben die Bundesländer eine Reform des Jugendmedienschutz-Staatsvertrages auf den Weg gebracht und ihren Vorschlag einer Neufassung zur Diskussion gestellt. Mit diesem wurden sowohl Anpassungen im Hinblick auf das im Jahr 2021 novellierte Jugendschutzgesetz des Bundes sowie auch Vorschläge für eine technische Jugendmedienschutzlösung unterbreitet. Weitere Informationen dazu können in unserem Artikel „Entwurf zur Fortentwicklung des Jugendmedienschutzes in Deutschland“ vom 28. April 2022 nachgelesen werden. Die damalige Stellungnahme der Stiftung Digitale Chancen steht hier zur Verfügung.

    In Kenntnis der Rückmeldung zu ihrem letztjährigen Entwurf hat die Rundfunkkommission der Länder am 8. November 2023 eine überarbeitete Fassung des Reformvorschlags des Jugendmedienschutz-Staatsvertrages veröffentlicht. Neben den zuvor genannten Anliegen nutzen die Bundesländer auch die Möglichkeit den zwischenzeitlich beschlossenen Digital Services Act zu berücksichtigen und notwendige Bezüge herzustellen. Erneut besteht nunmehr die Möglichkeit die Vorschläge zu kommentieren sowie Anregungen und Hinweise zu unterbreiten. Stellungnahmen zum vorliegenden Reformvorschlag können bis zum 7. Dezember 2023 hier eingereicht werden. Die aktuelle Positionierung der Stiftung Digitale Chancen werden wir auf dieser Seite veröffentlichen.


  • Veröffentlicht am 14.11.23

    Schieb deine Verantwortung nicht weg

    Torsten Krause, SDC

    Nachdem die im November 2022 gestartet Kampagne „Schieb den Gedanken nicht weg“ 21 Millionen Menschen online und 18 Millionen via TV erreichte, haben das Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) und die Unabhängige Beauftragte für Fragen des sexuellen Kindesmissbrauchs (UBSKM) am 13. November in einem Berliner Kino die zugehörige Fortsetzung vorgestellt. Unter dem Titel „Schieb deine Verantwortung nicht weg“ wird nunmehr der Fokus darauf gerichtet, dass jede*r Hinschauen und Hinhören möge, um im Falle eines sexuellen Übergriffes gegenüber einem Kind handeln zu können. Bei der Veranstaltung betonte Kerstin Claus (UBSKM), dass nicht alle betroffenen Kinder schweigen. Sie senden durchaus Signale aus, leider werden diese von Erwachsenen oftmals nicht wahrgenommen oder verstanden. Mit der Aktion solle daher dafür sensibilisiert werden aufmerksam zu sein, im Zweifel nachzufragen und Verantwortung zu übernehmen.

    Neben Plakaten, Spots und Aktionen bietet die aktuelle Kampagne zahlreiche Informationen und Hilfestellungen, wie Erwachsene reagieren können, wenn sie den Eindruck haben, dass ein Kind sexuelle Gewalt leidet. Gut beraten können diese dann Handeln, Kinder schützen und so ihrer Verantwortung nachkommen. Materialien zu sexueller Gewalt an Kindern und wie dagegen vorgegangen werden kann stehen auch in englischer, französischer, polnischer, türkischer und ukrainischer Sprache zur Verfügung.


  • Veröffentlicht am 09.11.23

    Kinderrechtsorganisationen fordern stärkere Maßnahmen für den Schutz von Kindern vor sexueller Gewalt

    Torsten Krause, SDC

    Über den Vorschlag der Europäischen Kommission zur Prävention und Bekämpfung sexuellen Missbrauchs von Kindern im Internet wird sowohl im Europäischen Rat als auch im Europäischen Parlament weiterhin verhandelt. Während im Europäischen Rat die abschließende Verständigung auf einen Kompromissvorschlag bereits mehrfach vertagt wurde und weiterhin verschiedene Konzepte zum Umgang mit möglichen Aufdeckungsanordnungen diskutiert werden, konnte der LIBE-Ausschuss des Europäischen Parlaments Ende Oktober bereits eine Verständigung aller Fraktionen auf eine gemeinsame Haltung öffentlich verkünden. Gleichwohl steht auch in diesem Fall die Beschlussfassung im Ausschuss noch aus. Diese ist für die Sitzung am 14. November 2023 angekündigt.

    Ausgehend von der gemeinsamen Verlautbarung der politischen Verhandlungsführenden im LIBE-Ausschuss sollen Aufdeckungsanordnungen für die Abbildungen von sexueller Gewalt an Kindern online dann zulässig sein, wenn ein begründeter Verdacht gegen einzelne Nutzer oder eine bestimmte Gruppe von Nutzern unverschlüsselter Dienste, entweder als solche oder als Abonnenten eines bestimmten Kommunikationskanals besteht, bei denen ein - wenn auch nur indirekter - Zusammenhang mit Material über sexuellen Kindesmissbrauch im Internet vorliegt, sowie ein Gericht die Aufdeckungen angeordnet hat. Das Aufdecken der Kontaktanbahnung Erwachsener gegenüber Kindern zum Zwecke der Ausübung sexueller Gewalt (grooming) soll nicht von Aufdeckungsanordnungen erfasst werden können. Auch die Möglichkeit der freiwilligen Nachforschungen von Diensteanbietern nach Darstellungen sexueller Gewalt an Kindern wird nicht mehr zulässig sein. Mit dem Inkrafttreten der vorgeschlagenen Verordnung wird die aktuell gültige Übergangsbestimmung zur ePrivacy-Richtlinie auslaufen. Aufdeckungen sind dann nur noch auf Grundlage der neuen Verordnung möglich.

    Mehr als 80 Kinderrechtsorganisationen erwarten vor diesem Hintergrund, dass die Zahl der Meldungen solcher Abbildungen erheblich zurückgehen und somit die Verfolgung und Bekämpfung sexueller Gewalt an Kindern im Internet erheblich eingeschränkt würde. In einem offenen Brief setzen sie sich dafür ein, auch in der neuen Verordnung die Möglichkeit des freiwilligen Nachforschens seitens der Diensteanbieter nach bekannten und neuen Missbrauchsdarstellungen zu ermöglichen. Ein zwischenzeitlich vom Ausschussvorsitzenden Zarzalejo vorgelegter Kompromissvorschlag sah vor, dass Diensteanbietende selbst eine Aufdeckungsanordnung bei Gericht beantragen könnten. Dies wäre zum Beispiel sinnvoll, wenn im Zuge des verpflichtenden Risikoassessments zeitlich befristet geprüft werden soll, ob und wieviel inkriminiertes Material in einem Dienst verbreitet wird, um geeignete Maßnahmen zur Minderung des Risikos zu etablieren. Mit ihrem offenen Brief wollen die Kinderrechtsorganisationen die Beteiligten am Gesetzgebungsverfahren davon überzeugen, die Möglichkeit einer freiwilligen Aufdeckung in die Verordnung aufzunehmen.

    Parallel dazu lenkt eine neue Kampagne mit dem Titel „Jedes Bild zählt“ Aufmerksamkeit auf das Anliegen der Bekämpfung sexueller Gewalt an Kindern im Internet. Anhand aktueller Daten wird der Umfang sexualisierter Straftaten an Kindern dargestellt und dazu aufgefordert, für den Schutz von Kindern aktiv zu werden. Gleichzeitig kritisieren Organisationen und Bündnisse, die dem Regulierungsvorhaben der Europäischen Kommission ablehnend gegenüberstehen, dass die Kommission sich einseitig beraten lasse und Positionen der Regulierungsgegner*innen nicht ausreichend würdige.


  • Veröffentlicht am 27.10.23

    Die Rechte der Kinder zwischen Tür und Angel

    Jutta Croll & Torsten Krause, SDC

    Vom 23. bis 26. Oktober traf sich die ICANN-Gemeinschaft in Hamburg zu ihrer Jahreshauptversammlung und feierte gleichzeitig das 25-jährige Bestehen der Organisation. Die Abkürzung ICANN steht für Internet Corporation for Assigned Names and Numbers (Internetgesellschaft für die Vergabe von Namen und Nummern). Die gemeinnützige Organisation verfolgt das Ziel einen sicheren, stabilen und einheitlichen Betrieb des Internets zu gewährleisten, und könnte daher als Verwaltung des Internets bezeichnet werden. Alle dafür notwendigen Regelungen und Prinzipien werden zwischen den verschiedenen Interessengruppen, wie den Regierungen, der Wirtschaft, der technischen Gemeinschaft, der Zivilgesellschaft und den Nutzenden gemeinschaftlich und konsensbasiert entwickelt. Basisorientiert wächst so das Fundament des Internets mit dem Ziel, weltweit und für alle Menschen den Zugang zu ermöglichen. Dabei konzentriert sich ICANN auf die Strukturen und Funktionsweisen, die das Fundament des Internet bilden und für dessen Erhalt förderlich sind.

    Anhand des Wegs, den ICANN seit der Gründung 1998 zurückgelegt hat, wird deutlich, wie sich die Organisationsstruktur und Verfahren zur Entwicklung von Richtlinien im Laufe der Zeit entwickelt haben, und es ist nachvollziehbar, warum ICANN keine Verantwortung für Inhalte übernimmt, die über die von ihr verwaltete Infrastruktur zugänglich gemacht werden.

    Tagung

    Missbrauch ist nicht gleich Missbrauch

    Das Domainnamensystem (DNS) ist das Rückgrat des Aufgabenbereichs und der Arbeit der ICANN. Daher befassen sich mehrere Ausschüsse, Referate, Arbeitsgruppen und Untergruppen mit der Aufrechterhaltung des DNS wie z. B. der Beratende Ausschuss für Sicherheit und Stabilität. Dies spiegelte sich auch im Programm der Tagung wider, bei der sich mehrere Sitzungen mit dem so genannten Missbrauch von Domainnamen befassten. Nach der ICANN-Definition umfasst DNS-Missbrauch Phishing, Pharming, Malware, Botnets und Spam. Diese Bereiche werden vom DNS Abuse Institute, der DNS Research Federation und dem DAAR-Projekt (Domain Abuse Activity Reporting) erforscht und von der Clean DNS Initiative behandelt. Obwohl die Verbreitung von Darstellungen sexueller Gewalt an Kindern (CSAM) nicht als DNS-Missbrauch verstanden wird, wird es als ein Problem erachtet, das trotz der ICANN-Politik, keine Verantwortung für Inhalte zu übernehmen, angegangen werden muss. So könnte die Unterscheidung zwischen Domainnamen, die von vornherein in krimineller Absicht registriert wurden, und solchen, die gehackt oder kompromittiert wurden, auch als Ansatz zur Bekämpfung von CSAM im Internet angewendet werden. Im Jahr 2023 ging bei den Hotlines in Europa ein hoher Prozentsatz von Meldungen ein, die sich auf Domainnamen mit kryptischen Buchstaben- und Zahlenfolgen bezogen, welche als Einladung zu Plattformen für den Austausch von CSAM verbreitet werden. Die niederländische Registry für die länderspezifische TOP-Level-Domain (ccTLD) .nl setzt eine KI-basierte Strategie gegen DNS-Missbrauch ein, welche Anträge auf die Registrierung von "verdächtigen" Domainnamen erkennt und weitere Maßnahmen zur Überprüfung der Daten des künftigen Registranten einleitet. Ein solcher Ansatz könnte auch für Internetadressen, die zur Verbreitung von CSAM missbraucht werden, eingesetzt werden.

    Ist die Sperrung auf DNS-Ebene ein zu scharfes Schwert?

    Sperrung ist das bevorzugte Mittel für Internetadressen, die zu Recht als missbräuchlich im Sinne der ICANN-Definition eingestuft werden. Sofern Darstellung sexueller Gewalt an Kindern hauptsächlich über Filesharing-Server verbreitet werden, ist es offenkundig, dass der Server nicht abgeschaltet werden sollte, wenn 99,9 Prozent der weiteren Inhalte dort legal zur Verfügung gestellt werden. Für die 0,1 Prozent illegaler CSAM-Inhalte gilt ebenfalls, dass Sperrung allein das Problem nicht lösen kann. Nicht alle Täter handeln aus einer pädophilen Neigung heraus. Viele derjenigen, die CSAM produzieren und verbreiten, haben ein kommerzielles Interesse, das sich nicht wesentlich von dem derjenigen unterscheidet, die Schadsoftware verbreiten.

    Auch wenn die Rechte von Kindern nicht im Fokus von ICANN stehen und nur zwischen Tür und Angel diskutiert werden, muss dieses Problem angegangen werden, und daran sollte auch ICANN beteiligt sein.


  • Veröffentlicht am 20.10.23

    Wie beeinflussen Angebotsgestaltungen das Medienhandeln junger Menschen?

    Torsten Krause, SDC

    Zusammenfassung der Untersuchung „Dark Patterns und Digital Nudging in Social Media - wie erschweren Plattformen ein selbstbestimmtes Medienhandeln?“

    Für die Bayerische Landeszentrale für neue Medien untersuchten Kammerl et al., wie manipulative Mechanismen (Digital Nudging und Dark-Patterns) anhand von Gestaltungsmerkmalen, Strukturen und Designoberflächen der Plattformen funktionieren sowie, ob junge Menschen diese Mechanismen erkennen und welche Gefahren von einer daraus resultierenden exzessiven Mediennutzung ausgehen können. Dabei stützen sich die Autor*innen auf eine Literaturauswertung, die Begutachtung exemplarischer Social Media Angebote sowie auf Interviews mit jungen Nutzenden von Social Media. Insgesamt wurden rund 70 neu recherchierte wissenschaftliche Fachbeiträge berücksichtigt, fünf Dienste (WhatsApp, TikTok, Instagram, Snapchat und YouTube) untersucht und elf Jugendliche interviewt.

    Für die Auswertung der Literaturrecherche haben sich die Autor*innen auf die exzessive und suchtähnliche Nutzung von Social Media fokussiert. Von besonderem Interesse war, ob eine zunehmend ausufernde Nutzung als selbstbestimmtes Handeln angesehen werden muss oder ob möglicherweise eine Abhängigkeit von Social Media zu beobachten ist, welche als eine von den Anbietern mitverursachte Unfähigkeit verstanden werden müsste, die Social Media Nutzung so zu regulieren, dass sie zu keinen negativen persönlichen Folgen für die jungen Nutzenden führt. Allgemein wurde deutlich, dass medienzentrierte Annahmen, die von einem starken negativen Einfluss einer Social Media Nutzung auf das psychische Wohlbefinden ausgehen, im Ergebnis durch die vorliegenden empirischen Befunde nicht gestützt werden. Festgestellt wurde ebenso, dass die Befundlage zu Kindern und Jugendlichen einerseits momentan noch geringer ausfällt, andererseits aber auch von stärker ausgeprägten, negativen Aspekten berichtet wird als bei Erwachsenen. Die Befunde legen nahe, dass Merkmale der sozialen Medien, des Individuums und der sozialen Umwelt jeweils Relevanz für die Erklärung einer Problematic Use of Social Media (PUSM vgl. Moretta et al. 2022) haben.

    Als Digital Nudging verstehen Kammerl et al. bewusste Designgestaltungen von Elementen der Benutzeroberfläche, die auf die Beeinflussung des Verhaltens der Nutzenden abzielt. Entsprechende Gestaltung können demnach als manipulativ und im (Geschäfts-)Interesse der Dienste liegend erachtet werden. Im konkreten Fall werden diese Gestaltungen eingesetzt um Nutzende von Social Media hinsichtlich ihrer ursprünglichen zeitlichen, monetären und Inhalte rezipierender Intention(en) zu beeinflussen. Diese Methoden können demnach insgesamt als ethisch fragwürdig eingestuft werden, insbesondere, wenn sie Kinder und Jugendliche in ihrer Entscheidungsfreiheit betreffen. Mit dem Begriff Dark Patterns werden Gestaltungsmuster bezeichnet, welche Schwächen der Angebotsnutzenden bei ihrem Reflexionsvermögen und in der Informationsverarbeitung (aus)nutzen. Insbesondere wenn dabei Fehlinformationen eingesetzt werden, Informationen zurückgehalten oder Entscheidungsoptionen mehr oder weniger vorenthalten werden, ist von Dark Patterns die Rede. Dabei wird davon ausgegangen, dass das Interface absichtlich so gestaltet wurde, dass die Nutzung des Angebots auch zu Konsequenzen führt, die nicht der Intention der Angebotsnutzenden entsprechen - auch, wenn nicht notwendigerweise von einer Schädigungsintention der Dienste ausgegangen werden kann.

    Insgesamt ist die Forschungslage zum Einfluss von Digital Nudging und Dark Patterns auf eine exzessive Nutzung wenig entwickelt. Relativ deutlich wird, dass vielen Nutzenden der Einsatz dieser manipulativen Techniken nicht bewusst ist („dark pattern blindness“ vgl. Di Geronimo et al. (2021). Aber auch wenn diese erkannt werden, können deren Wirkkraft schlecht eingeschätzt werden und sie werden als zu akzeptierende Rahmenbedingung hingenommen. Die gefundenen Studien liefern noch keine eindeutigen Belege, dass mit Digital Nudging und Dark Patterns auch zielgerichtet eine exzessive Nutzung hervorgerufen werden kann.

    Für die Analyse reichweitenstarker und populärer Apps wurden Instagram, TikTok, Snapchat, YouTube und WhatsApp ausgewählt. Diese ergab, dass diese Dienste nicht neutral genutzt werden können, sondern Dark Patterns und Digital Nudges sich vielfach in Nutzungspraktiken einschreiben und diese zu steuern versuchen. Kammerl et al. zeigen dies zunächst in prozesshafter Perspektive für die verschiedenen Nutzungsphasen auf. Die entsprechenden Mechanismen greifen dabei bereits bei der Anschaffung eines Smartphones mit integriertem Betriebssystem und damit vor der aktiven Installation der Apps. Von den anfänglichen Default-Einstellungen über die erste und längerfristige Nutzung bis hin zur Abmeldung oder Löschung des Accounts werden unterschiedliche manipulative Muster relevant.

    Es wird nachgewiesen, dass sich viele Dark Patterns in allen analysierten Apps finden. Jedoch ergaben sich auch Unterschiede und Dark Patterns waren in manchen Apps stärker ausgebaut als in anderen.

    Im Rahmen der Interwies konnte erhoben werden, dass allen Jugendlichen das Problem vermehrter Nutzung bekannt ist. Die Ursachen dafür werden von diesen oft jedoch in individueller Verantwortung verortet. Sie betrachten zunächst mangelnde Selbstkontrolle, den unbegrenzten Zugang zu interessanten Inhalten und der damit einhergehende Verlust des eigenen Zeitempfindens als entscheidende Einflussfaktoren auf ein Zuviel der Nutzung von Social Media. Auch die Nutzungsweise durch die eigenen Peers bzw. den Inhalten auf den Plattformen wird eine Verantwortung zugeschrieben.

    Die Manipulationsmechanismen werden ambivalent betrachtet. Dabei stehen sich die Wahrnehmung der Angebote und ihrer Inhalte als unterhaltsam und beliebter Zeitvertreib sowie der in den Apps angelegte hohe Komfort für die Jugendlichen und das Gefühl, diese Angebote nicht ausufernd nutzen zu wollen, gegenüber. Die Strategien der Jugendlichen, um den Nudging-Mechanismen der Plattformbetreibenden entgegenzuwirken, umfassen Selbststeuerungs- sowie technische Methoden, aber auch kontrollierende Maßnahmen, die von den Eltern ausgeführt werden. Angemessen geschützt oder durch die Plattformbetreibenden unterstützt, um ihre Nutzungsdauer angemessen zu kontrollieren, sehen sich die Jugendlichen nicht. Dies zeigt sich an der Bedeutung von (selbst-)regulierenden Maßnahmen der Jugendlichen. So wird die Beschränkung der Nutzungsdauer oder die Deinstallation von Apps besonders häufig anwendet. Seltener werden Nutzungswege und Strategien angewandt, welche innerhalb der Apps vorsehen sind. Eine besondere Rolle und Legitimation zur Regulierung der Social-Media-Nutzung wird zudem Eltern zugeschrieben, die z.B. durch Kinderschutz-Apps und -Einstellungen Nutzungszeiten ihrer Kinder regulieren können.

    Zusammenfassend zeigt sich in den empirischen sekundäranalytischen Auswertungen deutlich, dass unterschiedliche Aspekte für die Entstehung einer problematischen Nutzung sozialer Medien relevant zu sein scheinen. Daraus folgt, dass multikausale Erklärungsansätze sehr wahrscheinlich sind. Insbesondere bestimmte Aspekte der Medienerziehung (z.B. eine geringer ausgeprägte restriktive Mediation) und eine stärker ausgeprägte Hyperaktivität?/?Unaufmerksamkeit scheinen zur Entwicklung einer problematischen Nutzung sozialer Medien beizutragen. Als Handlungsempfehlungen ließen sich aus diesen empirischen Befunden ableiten, dass klare Regeln und ggf. konsequente Einschränkungen der Nutzung sozialer Medien hilfreich sein könnten, um einer zukünftigen problematischen Nutzung sozialer Medien vorzubeugen. Bei bestimmten vorbelasteten Jugendlichen (beispielsweise mit einem Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom) sollte die Nutzung sozialer Medien etwas stärker durch die Eltern begleitet und ggf. ebenfalls reguliert werden, insbesondere, wenn die Fähigkeiten zur Selbstregulation bei dieser Subgruppe etwas geringer als bei anderen Jugendlichen ausgeprägt sind.

    Daneben formulieren Kammerl et al. folgende Handlungsempfehlungen:

    • Medienanbietende sollen sich zu Verantwortung und ethisches Design (selbst)verpflichten,
    • Orientierung sollen Medienabietende durch ethics by design erhalten,
    • technische Möglichkeiten zur Eindämmung potentieller Risiken von Dark Patterns und Digital Nudging sollen genutzt werden,
    • Freiwillige Selbstkontrollen sollen entsprechende Muster und Gestaltungen bei ihren Alterskennzeichnungen und Freigaben berücksichtigen,
    • Medienaufsicht soll gestärkt werden, um Kinder- und Jugendmedienschutz (besser) durchsetzen zu können,
    • milieusensible Medienkompetenzförderungen bei Kinder und Jugendlichen sowie Elternarbeit und Fortbildung für pädagogische Fachkräfte wird ebenso wie
    • weiterführende Forschung benötigt.

    Die Untersuchung „Dark Patterns und Digital Nudging in Social Media - wie erschweren Plattformen ein selbstbestimmtes Medienhandeln?“ wurde als Expertise für die Bayerische Landeszentrale für neue Medien von Prof. Dr. Rudolf Kammerl, J.-Prof. Dr. Michaela Kramer, Dr. Jane Müller, Katrin Potzel, Moritz Tischer und Prof. Dr. Lutz Wartberg gefertigt und im Rahmen der BLM-Schriftenreihe, Band 110 bei NOMOS veröffentlicht und kann hier heruntergeladen werden.

    Verweise:

    Di Geronimo, L., Braz, L., Fregnan, E., Palomba, F., & Bacchelli, A. (2020). UI dark patterns and where to find them: a study on mobile applications and user perception. In Proceedings of the 2020 CHI. https://sback.it/publications/chi2020.pdf (zuletzt aufgerufen am 04.12.2022).

    Moretta, T.; Buodo, G.; Demetrovics, Z. & Potenza, M. (2022). Tracing 20 years of research on problematic use of the internet and social media: Theoretical models, assessment tools, and an agenda for future work. Comprehensive Psychiatry 112 (2022) 152286.



<< < 1 2 3 4 5 6 7 ... > >>