Direkt zum Seiteninhalt springen - Tastenkürzel 2 Direkt zum Hauptmenü springen - Tastenkürzel 1 Direkt zur Suche springen - Tastenkürzel 5

FOKUS


  • Veröffentlicht am 20.10.23

    Wie beeinflussen Angebotsgestaltungen das Medienhandeln junger Menschen?

    Torsten Krause, SDC

    Zusammenfassung der Untersuchung „Dark Patterns und Digital Nudging in Social Media - wie erschweren Plattformen ein selbstbestimmtes Medienhandeln?“

    Für die Bayerische Landeszentrale für neue Medien untersuchten Kammerl et al., wie manipulative Mechanismen (Digital Nudging und Dark-Patterns) anhand von Gestaltungsmerkmalen, Strukturen und Designoberflächen der Plattformen funktionieren sowie, ob junge Menschen diese Mechanismen erkennen und welche Gefahren von einer daraus resultierenden exzessiven Mediennutzung ausgehen können. Dabei stützen sich die Autor*innen auf eine Literaturauswertung, die Begutachtung exemplarischer Social Media Angebote sowie auf Interviews mit jungen Nutzenden von Social Media. Insgesamt wurden rund 70 neu recherchierte wissenschaftliche Fachbeiträge berücksichtigt, fünf Dienste (WhatsApp, TikTok, Instagram, Snapchat und YouTube) untersucht und elf Jugendliche interviewt.

    Für die Auswertung der Literaturrecherche haben sich die Autor*innen auf die exzessive und suchtähnliche Nutzung von Social Media fokussiert. Von besonderem Interesse war, ob eine zunehmend ausufernde Nutzung als selbstbestimmtes Handeln angesehen werden muss oder ob möglicherweise eine Abhängigkeit von Social Media zu beobachten ist, welche als eine von den Anbietern mitverursachte Unfähigkeit verstanden werden müsste, die Social Media Nutzung so zu regulieren, dass sie zu keinen negativen persönlichen Folgen für die jungen Nutzenden führt. Allgemein wurde deutlich, dass medienzentrierte Annahmen, die von einem starken negativen Einfluss einer Social Media Nutzung auf das psychische Wohlbefinden ausgehen, im Ergebnis durch die vorliegenden empirischen Befunde nicht gestützt werden. Festgestellt wurde ebenso, dass die Befundlage zu Kindern und Jugendlichen einerseits momentan noch geringer ausfällt, andererseits aber auch von stärker ausgeprägten, negativen Aspekten berichtet wird als bei Erwachsenen. Die Befunde legen nahe, dass Merkmale der sozialen Medien, des Individuums und der sozialen Umwelt jeweils Relevanz für die Erklärung einer Problematic Use of Social Media (PUSM vgl. Moretta et al. 2022) haben.

    Als Digital Nudging verstehen Kammerl et al. bewusste Designgestaltungen von Elementen der Benutzeroberfläche, die auf die Beeinflussung des Verhaltens der Nutzenden abzielt. Entsprechende Gestaltung können demnach als manipulativ und im (Geschäfts-)Interesse der Dienste liegend erachtet werden. Im konkreten Fall werden diese Gestaltungen eingesetzt um Nutzende von Social Media hinsichtlich ihrer ursprünglichen zeitlichen, monetären und Inhalte rezipierender Intention(en) zu beeinflussen. Diese Methoden können demnach insgesamt als ethisch fragwürdig eingestuft werden, insbesondere, wenn sie Kinder und Jugendliche in ihrer Entscheidungsfreiheit betreffen. Mit dem Begriff Dark Patterns werden Gestaltungsmuster bezeichnet, welche Schwächen der Angebotsnutzenden bei ihrem Reflexionsvermögen und in der Informationsverarbeitung (aus)nutzen. Insbesondere wenn dabei Fehlinformationen eingesetzt werden, Informationen zurückgehalten oder Entscheidungsoptionen mehr oder weniger vorenthalten werden, ist von Dark Patterns die Rede. Dabei wird davon ausgegangen, dass das Interface absichtlich so gestaltet wurde, dass die Nutzung des Angebots auch zu Konsequenzen führt, die nicht der Intention der Angebotsnutzenden entsprechen - auch, wenn nicht notwendigerweise von einer Schädigungsintention der Dienste ausgegangen werden kann.

    Insgesamt ist die Forschungslage zum Einfluss von Digital Nudging und Dark Patterns auf eine exzessive Nutzung wenig entwickelt. Relativ deutlich wird, dass vielen Nutzenden der Einsatz dieser manipulativen Techniken nicht bewusst ist („dark pattern blindness“ vgl. Di Geronimo et al. (2021). Aber auch wenn diese erkannt werden, können deren Wirkkraft schlecht eingeschätzt werden und sie werden als zu akzeptierende Rahmenbedingung hingenommen. Die gefundenen Studien liefern noch keine eindeutigen Belege, dass mit Digital Nudging und Dark Patterns auch zielgerichtet eine exzessive Nutzung hervorgerufen werden kann.

    Für die Analyse reichweitenstarker und populärer Apps wurden Instagram, TikTok, Snapchat, YouTube und WhatsApp ausgewählt. Diese ergab, dass diese Dienste nicht neutral genutzt werden können, sondern Dark Patterns und Digital Nudges sich vielfach in Nutzungspraktiken einschreiben und diese zu steuern versuchen. Kammerl et al. zeigen dies zunächst in prozesshafter Perspektive für die verschiedenen Nutzungsphasen auf. Die entsprechenden Mechanismen greifen dabei bereits bei der Anschaffung eines Smartphones mit integriertem Betriebssystem und damit vor der aktiven Installation der Apps. Von den anfänglichen Default-Einstellungen über die erste und längerfristige Nutzung bis hin zur Abmeldung oder Löschung des Accounts werden unterschiedliche manipulative Muster relevant.

    Es wird nachgewiesen, dass sich viele Dark Patterns in allen analysierten Apps finden. Jedoch ergaben sich auch Unterschiede und Dark Patterns waren in manchen Apps stärker ausgebaut als in anderen.

    Im Rahmen der Interwies konnte erhoben werden, dass allen Jugendlichen das Problem vermehrter Nutzung bekannt ist. Die Ursachen dafür werden von diesen oft jedoch in individueller Verantwortung verortet. Sie betrachten zunächst mangelnde Selbstkontrolle, den unbegrenzten Zugang zu interessanten Inhalten und der damit einhergehende Verlust des eigenen Zeitempfindens als entscheidende Einflussfaktoren auf ein Zuviel der Nutzung von Social Media. Auch die Nutzungsweise durch die eigenen Peers bzw. den Inhalten auf den Plattformen wird eine Verantwortung zugeschrieben.

    Die Manipulationsmechanismen werden ambivalent betrachtet. Dabei stehen sich die Wahrnehmung der Angebote und ihrer Inhalte als unterhaltsam und beliebter Zeitvertreib sowie der in den Apps angelegte hohe Komfort für die Jugendlichen und das Gefühl, diese Angebote nicht ausufernd nutzen zu wollen, gegenüber. Die Strategien der Jugendlichen, um den Nudging-Mechanismen der Plattformbetreibenden entgegenzuwirken, umfassen Selbststeuerungs- sowie technische Methoden, aber auch kontrollierende Maßnahmen, die von den Eltern ausgeführt werden. Angemessen geschützt oder durch die Plattformbetreibenden unterstützt, um ihre Nutzungsdauer angemessen zu kontrollieren, sehen sich die Jugendlichen nicht. Dies zeigt sich an der Bedeutung von (selbst-)regulierenden Maßnahmen der Jugendlichen. So wird die Beschränkung der Nutzungsdauer oder die Deinstallation von Apps besonders häufig anwendet. Seltener werden Nutzungswege und Strategien angewandt, welche innerhalb der Apps vorsehen sind. Eine besondere Rolle und Legitimation zur Regulierung der Social-Media-Nutzung wird zudem Eltern zugeschrieben, die z.B. durch Kinderschutz-Apps und -Einstellungen Nutzungszeiten ihrer Kinder regulieren können.

    Zusammenfassend zeigt sich in den empirischen sekundäranalytischen Auswertungen deutlich, dass unterschiedliche Aspekte für die Entstehung einer problematischen Nutzung sozialer Medien relevant zu sein scheinen. Daraus folgt, dass multikausale Erklärungsansätze sehr wahrscheinlich sind. Insbesondere bestimmte Aspekte der Medienerziehung (z.B. eine geringer ausgeprägte restriktive Mediation) und eine stärker ausgeprägte Hyperaktivität?/?Unaufmerksamkeit scheinen zur Entwicklung einer problematischen Nutzung sozialer Medien beizutragen. Als Handlungsempfehlungen ließen sich aus diesen empirischen Befunden ableiten, dass klare Regeln und ggf. konsequente Einschränkungen der Nutzung sozialer Medien hilfreich sein könnten, um einer zukünftigen problematischen Nutzung sozialer Medien vorzubeugen. Bei bestimmten vorbelasteten Jugendlichen (beispielsweise mit einem Aufmerksamkeitsdefizit-Hyperaktivitätssyndrom) sollte die Nutzung sozialer Medien etwas stärker durch die Eltern begleitet und ggf. ebenfalls reguliert werden, insbesondere, wenn die Fähigkeiten zur Selbstregulation bei dieser Subgruppe etwas geringer als bei anderen Jugendlichen ausgeprägt sind.

    Daneben formulieren Kammerl et al. folgende Handlungsempfehlungen:

    • Medienanbietende sollen sich zu Verantwortung und ethisches Design (selbst)verpflichten,
    • Orientierung sollen Medienabietende durch ethics by design erhalten,
    • technische Möglichkeiten zur Eindämmung potentieller Risiken von Dark Patterns und Digital Nudging sollen genutzt werden,
    • Freiwillige Selbstkontrollen sollen entsprechende Muster und Gestaltungen bei ihren Alterskennzeichnungen und Freigaben berücksichtigen,
    • Medienaufsicht soll gestärkt werden, um Kinder- und Jugendmedienschutz (besser) durchsetzen zu können,
    • milieusensible Medienkompetenzförderungen bei Kinder und Jugendlichen sowie Elternarbeit und Fortbildung für pädagogische Fachkräfte wird ebenso wie
    • weiterführende Forschung benötigt.

    Die Untersuchung „Dark Patterns und Digital Nudging in Social Media - wie erschweren Plattformen ein selbstbestimmtes Medienhandeln?“ wurde als Expertise für die Bayerische Landeszentrale für neue Medien von Prof. Dr. Rudolf Kammerl, J.-Prof. Dr. Michaela Kramer, Dr. Jane Müller, Katrin Potzel, Moritz Tischer und Prof. Dr. Lutz Wartberg gefertigt und im Rahmen der BLM-Schriftenreihe, Band 110 bei NOMOS veröffentlicht und kann hier heruntergeladen werden.

    Verweise:

    Di Geronimo, L., Braz, L., Fregnan, E., Palomba, F., & Bacchelli, A. (2020). UI dark patterns and where to find them: a study on mobile applications and user perception. In Proceedings of the 2020 CHI. https://sback.it/publications/chi2020.pdf (zuletzt aufgerufen am 04.12.2022).

    Moretta, T.; Buodo, G.; Demetrovics, Z. & Potenza, M. (2022). Tracing 20 years of research on problematic use of the internet and social media: Theoretical models, assessment tools, and an agenda for future work. Comprehensive Psychiatry 112 (2022) 152286.


  • Veröffentlicht am 17.10.23

    Mehrheiten für Schutz von Kindern

    Torsten Krause, SDC

    Am 13. Oktober haben ECPAT und NSPCC die Ergebnisse einer neuen Umfrage zum Schutz von Kindern vor sexueller Gewalt online veröffentlicht. Dafür wurden zwischen dem 30. August und dem 29. September mehr als 25.000 volljährige Personen in 15 Mitgliedsländern der Europäischen Union sowie Großbritannien zum Thema befragt. Demnach vertreten 95 Prozent der Befragten die Auffassung, dass es wichtig sei die Prävention und den Schutz von Kindern vor sexueller Gewalt online gesetzlich zu regeln. Fast genauso viele Teilnehmenden (91 Prozent) äußerten ihre Zustimmung, dass dafür Internetdiensteanbietende verpflichtet werden sollten ihre Angebote so zu gestalten, dass diese sicher für Kinder sind und sexuelle Gewalt gegenüber diesen vorbeugen. Weniger, aber dennoch eine große Mehrheit der Befragten (81 Prozent), stimmten auch der Aussage zu, dass dafür Anbietende von Onlinediensten dazu verpflichtet werden sollen nach entsprechenden Darstellungen in ihren Angeboten zu suchen sowie diese zu melden und zu entfernen.

    Die Ergebnisse der Umfrage werden von ECPAT und NSPCC zu einem Zeitpunkt veröffentlicht in dem der Europäische Rat sowie das Europäische Parlament über einen Regulierungsvorschlag der Europäischen Kommission zur Bekämpfung sexueller Gewalt an Kindern online beraten und ihre jeweiligen Entscheidungen zum Umgang mit diesem Entwurf vorbereiten. Im Zentrum der Diskussion steht dabei, ob und in welchem Umfang das Aufspüren der Anbahnung bzw. der Darstellung sexueller Gewalt an Kindern auch in verschlüsselten Angeboten ermöglicht werden soll. In der Umfrage signalisierten 72 Prozent der Teilnehmenden ihre Bereitschaft einen Kompromiss zum Vorteil des Kinderschutzes und zulasten ihrer Privatsphäre anzunehmen, um so das Suchen nach diesen strafbaren Aktivitäten zu ermöglichen.


  • Veröffentlicht am 13.10.23

    Kluge Ideen für ein Internet, das wir wollen

    Jutta Croll, SDC

    Am Donnerstagabend (12.10.2023) wurde das 18. Internet Governance Forum beendet und der Staffelstab an Saudi-Arabien übergeben, wo die 19. Ausgabe des Forums im November 2024 in Ryad stattfinden soll.

    Mit mehr als 300 Sessions und über 8.000 Teilnehmenden, von denen etwa zwei Drittel vor Ort in Kyoto waren, war das Veranstaltungsprogramm geeignet, großen Einfluss auf das Internet-Ökosystem zu nehmen. Ausgehend von den wichtigsten Erkenntnissen aus den Sitzungsberichten wurden die Kyototer IGF-Botschaften formuliert. Diese Botschaften sollen den Entscheidungsträger*innen einen Überblick geben über die aktuellsten Ideen und Abwägungen zu wichtigen Fragen der Internet Governance und Digitalpolitik.

    Die Sicherheit von Kindern und das Recht von Kindern, vor illegalen Aktivitäten wie sexueller Ausbeutung im Internet geschützt zu werden, wurden richtigerweise in mehreren Sessions des IGF 2023 thematisiert. Kinder werden von der Multi-Stakeholder-Gemeinschaft als die künftige Generation anerkannt, die das Internet nicht nur sinnvoll nutzen, sondern auch gestalten soll.

    Dies wird in den folgenden Botschaften, die sich mit den Rechten der Kinder befassen, besonders hervorgehoben:

    • Eine Perspektive, die die Vulnerabilität bestimmter Zielgruppen in allen Bereiche der Gestaltung der digitalen Umgebung und der Internet Governance berücksichtigt, ist unerlässlich, wenn wir eine inklusive, sichere und geschützte Online-Welt gewährleisten wollen - insbesondere für Kinder, die mittlerweile ein Drittel der weltweiten Internetnutzer ausmachen.
    • Kinder haben ein Recht auf sichere, altersgerechte und inklusive digitale Räume, in denen sie forschen, lernen und spielen können. Daten, Beweise und der Austausch von Wissen sind entscheidend, um die Sicherheit von Kindern in den Mittelpunkt globaler digitaler Agenden zu stellen, einschließlich solcher, die sich mit Cybersicherheit und der Online-Sicherheit von Kindern befassen.
    • Safety by Design erfordert Investitionen in die Online-Sicherheit von Kindern im gesamten Ökosystem, mit einem besonderen Fokus auf Ländern mit niedrigem und mittlerem Budget, außerdem mehr vorgelagerte und kooperative Maßnahmen.
    • Wir bedanken uns bei allen Akteur*innen, die den kinderrechtebasierten Ansatz der Internet Governance beim diesjährigen Forum befördert und vorangebracht haben. Die Botschaft, dass die Nachhaltigkeit des Internet-Governance-Ökosystems die Einbeziehung und das Engagement von jungen Menschen, die die nächste Generation von Nutzer*innen, Expert*innen und Führungskräften sind, ist aus unserer Sicht von größter Bedeutung, denn angesichts des raschen technologischen Wandels ist es wichtig, die Fähigkeiten künftiger Generationen in allen Ländern und auf allen Ebenen zu fördern. Wir sind bereit, unseren Teil der Verantwortung dafür zu übernehmen, jetzt und in der Zukunft.

      Einen Überblick über unsere täglichen Berichte vom IGF 2020 finden Sie hier:


  • Veröffentlicht am 11.10.23

    Zeit für Kinderrechte

    Jutta Croll & Torsten Krause, SDC

    Am dritten Konferenztag des Internet Governance Forum im japanischen Kyoto standen Kinderrechte im Fokus vieler Veranstaltungen. So ging es unter anderem darum, wie Technologien entwickelt werden können, die das Wohlbefinden junger Menschen befördern, wie junge Menschen sich einbringen und an Entscheidungen teilhaben oder auch, wie ihre Daten geschützt und verantwortlich behandelt werden können.

    #52 RITEC: Prioritizing Child Well-Being in Digital Design

    Gemeinsam mit führenden Expert*innen haben UNICEF und LEGO das RITEC-Vorhaben (Responsible Innovation in Technology for Children) auf den Weg gebracht, um herauszuarbeiten, was es bedarf, um Technologien und Angebote zu entwickeln, die Kinder und Jugendliche nicht nur schützen, sondern ihr Wohlbefinden befördern und damit einen positiven Beitrag für deren Entwicklung leisten können. Bewusst ist den Beteiligten dabei, dass eine solche Entwicklung nicht ohne die Beteiligung junger Menschen zu realisieren ist. Daher hat das Young & Resilient Research Center der Western Sydney University in Australien ein umfassendes Partizipationsverfahren mit mehr als 34.000 Kindern aus über 30 Ländern durchgeführt. Diese Ergebnisse helfen dabei eine Struktur zu entwickeln, die perspektivisch Entwickler*innen und Programmier*innen wichtig Hinweise und Anregungen zur Berücksichtigung der Kompetenzen, der emotionalen Selbststeuerung, der Stärkung und Kreativität von jungen Menschen geben wird und ohne dabei deren soziale Vernetzung, Fragen von Schutz und Sicherheit, von Diversität und Inklusion sowie der Weiterentwicklung junger Menschen zu vernachlässigen. Sobald die Richtlinien finalisiert sind, ist beabsichtigt in eine Pilotphase einzutreten und deren Realisierung zu erproben.

    #64 Worldwide Web of Youth: Cooperation for Enlightenment

    In der von jungen Menschen durchgeführten Veranstaltung stellten sie ihre Vorhaben zur Medienkompetenzbildung, aber auch zur Steigerung des Engagements von Jugendlichen in der Gestaltung und Regulierung des digitalen Umfelds vor und berichteten von ihren Erfahrungen als junge Botschafter*innen oder Mitglieder in Jugendgremien bspw. des IGF und bei der Internationalen Fernmeldeunion (ITU). Als besonders positiv hoben sie hervor, dass die Selbstorganisation und Befassung mit Themen, die ihren Interessen entsprechen wesentlich dazu beiträgt mehr junge Menschen zu involvieren und zu beteiligen. Dabei können sie davon profitieren von bereits erfahreneren Jugendlichen unterstützt zu werden, welche sie mit Spezifika und Verfahrensweise der Erwachsenenorganisationen vertraut machen und ihnen Hilfestellung dabei gewähren Angebote für deren Konferenzen und Veranstaltungen erfolgreich zu gestalten. Obwohl sie dadurch eine gute Aufmerksamkeit erzielen können, nehmen sie jedoch mitunter auch wahr, dass ihre Teilnahme und Anwesenheit zwar grundsätzlich begrüßt und unterstützt wird, ihr Einfluss auf die Gestaltung der Entwicklung des digitalen Raums jedoch noch nicht in allen Fällen wirksam wird.

    Bildbeschreibung

    DC COS main session „Risk, opportunity and child safety in the age of AI“

    In der Veranstaltung tauschten sich Vertretende des Deutschen Kinderhilfswerks, des Childfund Japan, des Asia Pacific Youth IGF, von Microsoft sowie dem Zentrum für Recht und Kriminalitätsprävention gemeinsam mit dem Publikum darüber aus, wie es gelingen kann die Sicherheit junger Menschen bei der Nutzung digitaler Anwendungen bei einer Vielzahl an Möglichkeiten und Risiken zu gewähren. Betont wurde in dem Gespräch, dass der Kinderrechtsausschuss der Vereinten Nationen mit der Allgemeinen Bemerkung Nr. 25 ein wegweisendes Dokument vorgelegt hat, dass umfassend darlegt, wie die Rechte der Kinder für die digitale Welt auszulegen und anzuwenden sind. Aus der Praxis und aktuellen Untersuchungen wurde jedoch auch deutlich, dass es gleichwohl große Herausforderungen gibt eine sichere Teilhabe junger Menschen an digitalen Anwendungen zu ermöglichen. Dies liegt zum einen daran, dass Kinder und Jugendliche nicht immer mit allen Möglichkeiten zum Schutz in den Anwendungen vertraut sind und oftmals auch nur wenig Unterstützung und Begleitung durch ihre Eltern oder andere Erwachsene erfahren. Aber auch nicht alle Angebote und Dienste kommen ihrer Verantwortung nach und halten ausreichende Vorsorge- und Schutzmaßnahmen für ihre Nutzenden bereit. Daher gibt es weltweit verschiedene Bestrebungen Kinder und Jugendliche in digitalen Umgebungen zu schützen, bspw. in dem sie den Unternehmen untersagen deren Daten für die gezielte Bewerbung von Produkten zu verwenden. Herausfordernd ist es dabei die richtige Balance zwischen Schutz und Teilhabe zu gewähren und eine gute Lösung im Sinne des Kindeswohl und der besten Interessen aller Kinder zu finden. Um zielgerichtet danach streben zu können wird mehr Beteiligung junger Menschen und Forschung über deren Nutzungsweisen digitaler Anwendungen notwendig sein.

    #559 Harnessing AI for Child Protection

    Künstliche Intelligenz ist DAS Schlagwort auf dem IGF 2023. Der Titel des Workshops unterstreicht, wie wichtig es ist, das Recht der Kinder auf Schutz mit dem Potenzial der KI zusammenzubringen.

    Ghimire Gopal Krishna von der Zivilgesellschaft in Nepal, Sarim Aziz als Vertreter von Meta und Michael Ilishebo von der Regierung Sambias sowie Jutta Croll diskutierten darüber, wie KI-Technologien wirksam eingesetzt werden können, um neue Formen der Ausbeutung von Kindern im digitalen Zeitalter zu erkennen und zu bekämpfen, wenn man die sich entwickelnde Natur der Online-Risiken berücksichtigt. Sarim Aziz erläuterte, was Meta unternimmt, um CSAM in ihren Diensten zu bekämpfen, und dass sie dies sehr erfolgreich tun, z. B. mit Software wie PhotoDNA und jetzt auch mit einer Technologie, die missbräuchliches Videomaterial erkennen kann. Aber obwohl die Plattformanbieter daran arbeiten, gibt es immer noch eine große Menge an CSAM, sogar im offenen Internet. Jutta Croll verwies auf den Entwurf einer CSAM-Verordnung, der sich derzeit im parlamentarischen Verfahren befindet und Regulierungsmaßnahmen für die folgenden drei Bereiche vorsieht: bereits bekannte CSAM, noch nicht identifizierte CSAM und Grooming-Prozesse. Aufgrund der hohen Komplexität der Überwachung von Inhalten und Kommunikation liegt es auf der Hand, dass es notwendig ist, die Effizienz der Überwachungstechnologien zu verbessern und sie so rechtskonform wie möglich zu gestalten. Die Privatsphäre ist eines der ambivalentesten Rechte, erklärte Jutta Croll. Kinder haben natürlich ein Recht auf Privatsphäre, nicht nur gegenüber Dienstleistern, sondern auch gegenüber ihren Eltern. Aber, wie Michael Ilishebo betonte, wollen Eltern zu Recht ihre Kinder schützen und verletzen in dieser Absicht manchmal die Privatsphäre ihrer Kinder. Gopal Krishna informierte über das nepalesische Kinderschutzgesetz und rief dazu auf, sich an die Menschenrechte und die Rechtsstaatlichkeit zu halten, um die Demokratie zu wahren. Er verwies dann auf das Konzept des "Alters für einvernehmliche sexuelle Beziehungen", das in den nationalen Rechtssystemen unterschiedlich umgesetzt wird, und diese Unterschiede werden in der digitalen Umgebung mit grenzüberschreitenden Dienstleistungen noch verstärkt. In ihrer Antwort verwies Jutta Croll auf Art. 118 der Allgemeinen Bemerkung Nr. 25, in der die Staaten ausdrücklich aufgefordert werden, die einvernehmliche Weitergabe von sexuell eindeutigen Inhalten unter Jugendlichen nicht zu kriminalisieren. Die wichtigste Erkenntnis aus der Session kann so zusammengefasst werden: Künstliche Intelligenz ist kein Allheilmittel; sie kann zwar bestimmte Arten von illegalen Inhalten erkennen, aber um zu verstehen, ob eine Interaktion zwischen Menschen einvernehmlich oder nicht einvernehmlich ist, bedarf es immer einer menschlichen Beurteilung.

    # 62 Data Protection for Next Generation: Putting Children First

    Ein auf Kinderrechten basierender Ansatz zum Datenschutz stand im Mittelpunkt der letzten Sitzung des Tages. Njemile Davis als Vertreterin der Regierung, Edmon Chung von Dot.Asia, Sonia Livingstone, Forscherin an der London School of Economics, Theodora Skeadas und Emma Day diskutierten darüber, wie Kinder in verschiedenen Altersgruppen ihr digitales Selbst und ihre Privatsphäre online verstehen, bewerten und aushandeln. Die Debatte drehte sich um die Frage, welche Fähigkeiten oder Schwachstellen das Verständnis der Kinder für ihre digitalen Daten und digitalen Rechte beeinflussen. Es wurden verschiedene Konzepte vorgestellt, die einerseits auf Bildungsmaßnahmen für Kinder und Erziehungsverantwortliche und andererseits auf regulatorischen Ansätzen auf nationaler und regionaler Ebene, wie z.B. der Allgemeinen Datenschutzverordnung, basieren. Es wurden auch Überlegungen zu der Frage angestellt, was ein guter Mechanismus zur Altersverifizierung ist, der nicht zu einer unangemessen umfangreichen Sammlung von mehr persönlichen Daten führt. Obwohl die Teilnehmenden zu diesem Zeitpunkt noch nicht in der Lage waren, ein fertiges System vorzuschlagen, skizzierten sie die Idee eines Systems unabhängiger vertrauenswürdiger Parteien, die die Daten von Einzelpersonen speichern könnten, um deren Alter zu überprüfen, wobei die Daten nicht an Diensteanbieter weitergegeben werden, sondern lediglich für die Richtigkeit des vom betreffenden Nutzer angegebenen Alters bürgen. Was Sonia Livingstone zu Recht sagte, ist die Schlüsselbotschaft dieser Sitzung: "Wenn wir Kinder schützen wollen, müssen wir das Alter ALLER Nutzer kennen, nicht nur das von Minderjährigen, und wir müssen dies mit einem Konzept zur Datenminimierung tun."


  • Veröffentlicht am 10.10.23

    Sind wir auf dem richtigen Weg, um Kinderrechte bei der Internet Governance zu berücksichtigen?

    Jutta Croll & Torsten Krause, SDC

    Die Debatten an Tag 2 des Internet Governance Forums befassten sich auf unterschiedliche Weise mit den Rechten von Kindern auf Schutz, Befähigung und Teilhabe. Eine Main Session am Vormittag war der Multistakeholder-Perspektive auf den Global Digital Compact (GDC) gewidmet, die sich sowohl mit dem Prozess als auch mit dem Inhalt der bisher entwickelten Übereinkunft befasste. Das Ziel des GDC ist es, sicherzustellen, dass digitale Technologien verantwortungsvoll und zum Nutzen aller eingesetzt werden. In dieser Sitzung erläuterte der Jugendvertreter im Prozess, Omar, dass er als einziges Kind am Tisch der Beratungen die Verantwortung übernommen habe, die Perspektive seiner Generation einzubringen. Er betonte nachdrücklich die Notwendigkeit von substanziellen Entwicklungen, um den Privatsektor für seine Rolle in der digitalen Welt in die Verantwortung zu nehmen und um sicherzustellen, dass er die Rechte und Interessen von Kindern und jungen Menschen gewährleistet.

    Später am Tag begann mit WS #469 AI & Child Rights: Umsetzung der UNICEF-Leitlinien eine Reihe von Sitzungen, die sich mit künstlicher Intelligenz und deren Auswirkungen auf Kinder befassten.

    Zunächst führte Steven Vosloo ein in das Thema und schilderte, wie die UNICEF-Leitlinien entwickelt wurden. Abschließend konstatierte er: "Es ist einfach, Leitlinien für KI im Einklang mit den Kinderrechten zu definieren, aber es ist schwierig, sie anzuwenden oder umzusetzen." Die folgende Debatte drehte sich dann um die Verankerung der Kinderrechte in den Strategien der Industrie für künstliche Intelligenz, die Einbeziehung von Kindern in den gesamten Kreislauf des Produktdesigns und eine von Regierungsseite unterstützte transparente Interaktion zwischen den beteiligten Akteuren, um deren Verantwortungsübernahme zu befördern.

    Eine wichtige Erkenntnis aus der Sitzung ist, dass KI bereits jetzt einen enormen Einfluss auf das Leben und das Wohlergehen von Kindern hat, so dass der Weg zur Durchsetzung der Rechte sofort begonnen werden muss.

    Danach schien es, als hätten die Redner*innen in der folgenden Main Session über künstliche Intelligenz diese Botschaft bereits vernommen. So betonte Thobekile Matimbe, Senior Manager der Partnerships and Engagements Paradigm Initiative, wie wichtig es ist, dass alle Beteiligten die Grundrechte und -freiheiten im Blick behalten, um sicherzustellen, dass auch die Rechte der Kinder beim Einsatz von KI gefördert werden.

    Der Tag endete mit konkreteren Beispielen im Open Forum #58, wie das Engagement von Unternehmen und Regulierungsmaßnahmen zusammen die Sicherheit von Kindern im Internet verbessern können. Während ein neues japanisches Gesetz auf der Sensibilisierung von Eltern und Kindern für Online-Risiken und der Verpflichtung von Dienstanbietern zur Sperrung Missbrauchsdarstellungen aufbaut, beschrieb Albert Antwi-Boasiako, Generaldirektor der Cybersicherheitsbehörde der Republik Ghana, den Ansatz einer kooperativen Regulierung. Einigkeit besteht dahingehend, dass Selbstregulierung allein Kinder nicht schützen kann, und es Modelle des Unternehmensengagement zum Schutz von Kindern gibt. Ghana hat ein Cybersicherheitsgesetz in Kraft gesetzt, das im Dialog mit der Industrie entwickelt wurde, und hat dann Verbündete für die Umsetzung des Gesetzes gewonnen. Ein Konzept, das der dialogischen Regulierung des novellierten deutschen Jugendschutzgesetzes von 2021 ähnelt. Zum Abschluss der Sitzung forderte Dunstan Allison-Hope, Vizepräsident für Menschenrechte bei BSR (Business for Social Responsibility), dass die Unternehmen freiwillig die Auswirkungen auf die Kinderrechte erheben und dies in den breiteren Rahmen der Sorgfaltspflicht in Bezug auf die Menschenrechte einbetten sollten.

    Auch in der Veranstaltung #403 Safe Digital Futures for Children: Aligning Global Agendas wurde mehrheitlich die Auffassung vertreten, dass Selbstregulierung der Dienste nicht mehr ausreiche, um junge Menschen online zu schützen. Um weltweite zielführende Rechtssetzungen zu realisieren haben sich die Verantwortlichen aus Australien, Irland, Südafrika, Südkorea, Groß Britannien und Fidji in einem globalen Netzwerk der Onlinesicherheitsregulierenden zusammengeschlossen. Gemeinsam wird daran gearbeitet Regeln, welche offline gelten auch online wirksam werden zu lassen. Dass dies nicht ohne die Perspektiven junger Menschen umgesetzt werden solle, forderte eine Jugendvertretung des Digital Youth Council ein.



<< < ... 6 7 8 9 10 11 12 ... > >>