Am Tag 3 des Internet Governance Forums 2024 standen die Dynamic Coalitions im Mittelpunkt. Er begann mit einer Hauptsitzung, die sich auf die Beiträge der Koalitionen zur Umsetzung des Global Digital Compact konzentrierte.
Bereits jetzt arbeiten 21 der 31 Dynamic Coalitions an der Erreichung der 5 Hauptziele des GDC:
- Ziel 1: Überbrückung der digitalen Kluft und Beschleunigung des Fortschritts bei den SDGs
- Ziel 2: Ausweitung der Einbeziehung der digitalen Wirtschaft und des Nutzens für alle
- Ziel 3: Förderung eines sicheren, geschützten und inklusiven digitalen Raums, der die Menschenrechte achtet
- Ziel 4: Förderung einer verantwortungsvollen, gerechten und interoperablen Datenverwaltung
- Ziel 5: Verbesserung der globalen KI-Governance zum Wohle der Menschheit
Die Arbeit der Dynamic Coalition für die Rechte der Kinder im digitalen Umfeld (DC CRIDE) passt in den Bereich der Förderung eines sicheren und inklusiven digitalen Raums, in dem die Menschenrechte gewahrt werden. Wie die Mitglieder der DC auf dieses Ziel hinarbeiten, wurde in der Sitzung mit dem Hinweis darauf erläutert, dass Kinder ein Drittel aller Internetnutzenden weltweit ausmachen.
Zu wissen, wie alt Nutzer*innen sind, scheint daher nicht nur für die Anbieter von Diensten und Plattformen sinnvoll zu sein, sondern auch für digitale Geräte, die mit dem Internet verbunden sind, das so genannte Internet der Dinge (IoT). Dies wurde anschließend in dem gemeinsamen Workshop der Dynamic Coalition on IoT und der DC CRIDE mit dem Titel Age-Aware IoT - Better IoT diskutiert.
Maarten Botterman begann die Sitzung mit einem Verweis auf das Internet der Dinge als sich ständig und sehr schnell entwickelnde Technologie, was Jutta Croll zu der Schlussfolgerung veranlasste, dass das Internet der Dinge auf den Grundsatz der sich entwickelnden Fähigkeiten von Kindern gemäß Art. 5 der UN-Kinderrechtskonvention reagieren müsse. Dann wies sie darauf hin, dass die Achtung der Rechte von Kindern im digitalen Umfeld die Kenntnis ihres Alters voraussetzt, was aber nicht bedeutet, dass ihre Identität noch ihr Geburtsdatum preisgeben werden müssen. Die Wahrung der Anonymität der Nutzenden ist eine Erwartung und eine Forderung, die aufrechterhalten werden muss, insbesondere angesichts aktueller Entwicklungen wie dem australischen Verbot von Kindern unter 16 Jahren in sozialen Netzwerken. In diesem Zusammenhang betonte Sonia Livingstone das Recht der Kinder auf Zugang zu Informationen und das Recht, ihre Stimme zu erheben; sie dürften nicht ausgeschlossen werden, sagte sie. Jonathan Cave befasste sich mit der Herausforderung der Datenminimierung bei Mechanismen der Altersfeststellung. Datenschutzgesetze wie die DSGVO setzten hohe Hürden für den Schutz der Daten von Kindern, während gleichzeitig die Altersfeststellung zu einer verstärkten Verarbeitung von Daten führen könne, wenn auch in guter Absicht. Er erklärte, Privatsphäre und Sicherheit seien Aspekte des Miteinanders im Internet, und plädierte für die Sorgfaltspflicht der Technologieunternehmen. Als Maarten Bottermann dynamische Kennzeichnungs- und Zertifizierungssysteme in die Debatte einbrachte, warf Abilash Nair die Frage auf, ob diese gesetzlich vorgeschrieben werden sollten. Seiner Ansicht nach hat die Selbstregulierung seit mehr als drei Jahrzehnten nicht mehr funktioniert, und auch die Gesetzgebung hinsichtlich Altersgrenzen im Internet wurden nicht durchgesetzt. Sowohl Sabrina Vorbau als auch Pratishtha Arora verwiesen auf die Rolle der Eltern, die weder für sich selbst noch für ihre Kinder zu sehr von Sicherheitstools abhängig werden sollten, so Prathista Arora. Vor diesem Hintergrund plädierte Sabrina Vorbau für einen auf Risikobewertung basierenden Ansatz für die Altersfeststellung und verwies auf das von European Schoolnet entwickelte Age Assurance Toolkit, das Plattformanbietern als Leitfaden dienen soll, um Altersfeststellung einzurichten, wo dies notwendig ist.
Zum Abschluss der Sitzung einigten sich die Teilnehmenden und Redner*innen auf die folgenden Erkenntnisse und Aktionspunkte für die Zukunft.
Schlussfolgerungen
1. Wir brauchen ein globales Verständnis bewährter Praktiken, das durch (globale/industrielle) Standards und (regionale/nationale) Gesetzgebung gestützt wird, die alle auf globalen Erkenntnissen beruhen
2. Kapazitätsentwicklung für alle Interessengruppen, um (1) sich dessen bewusst zu sein; (2) in der Lage zu sein, sich zu äußern; (3) in der Lage zu sein zu handeln
3. Verantwortlichkeit ist der Schlüssel: wer ist wofür verantwortlich?
Aktionspunkte
1. Einbindung der Regierungen in die Entwicklung und Unterstützung von Standards für bewährte Praktiken in Bezug auf Kinder im IoT und deren Nutzung (einschließlich der Folgenabschätzung für die Rechte des Kindes)
2. Identifizierung von Beispielen und Ansätzen für bewährte Praktiken aus der ganzen Welt (einschließlich Methoden zur Überprüfung des Alters unter Wahrung der Privatsphäre) und Berücksichtigung gemeinsamer Lehren in Bezug auf die Rechte von Kindern.
Im Workshop Regulating AI and Emerging Risks for Children's Rights der 5Rights Foundation wurde am Nachmittag über die Notwendigkeit der Regulierung künstlicher Intelligenz gesprochen und dargelegt, welche Gründe aus kinderrechtlicher Perspektive dafür sprechen. Dafür informierte Nidhi Ramesh, Jugendbotschafterin der Stiftung, über die Sichtweisen von jungen Menschen. In ihrem Beitrag wies sie darauf hin, dass künstliche Intelligenz in nahezu allen Angeboten und Diensten zum Einsatz komme, mit denen auch Kinder und Jugendliche täglich umgehen. Gleichwohl sind sich viele Menschen nicht bewusst, dass sie mit KI interagieren und können weder nachvollziehen, noch erklären, wie diese Techniken funktionieren und ihr Leben beeinflussen. Dabei sei es essentiell zu verstehen, wie Entscheidungen zustande kommen, um diese nachvollziehen und bewerten zu können. Ebenso merkte sie an, dass auch vorteilhafte Angebote, wie beispielsweise Lern- oder Kulturressourcen negative Auswirkungen haben können. So sorge sie sich darüber, dass es Veränderungen und Auswirkungen auf die Kreativität und den Wissenserwerb junger Menschen haben könne. Nicht zuletzt forderte sie, dass auch mit Blick auf den Schutz der persönlichen Daten sowie der Privatsphäre das Wohlbefinden junger Menschen zentral sein müsse.
In ihren Beiträgen griffen Jun Zhao und Ansgar Koene diese Perspektive auf. Jun Zhao betonte dabei, dass junge Menschen bereits doppelt so häufig mit künstlicher Intelligenz agieren, als dies bei Erwachsenen der Fall sei. Deren Daten werden unter anderem mittels Spielzeugen gesammelt und ausgewertet, welche mit dem digitalen Umfeld verbunden sind. Dieses Beispiel unterstrich die Anmerkungen, dass Kinder oftmals nicht wüssten, ob und wann sie mit künstlicher Intelligenz agieren und gibt weiteren Anlass ihre Daten zu schützen. Darüber hinaus zeigen Untersuchungen, dass künstliche Intelligenzen auch zu ungerechtfertigten Entscheidungen und Empfehlungen kommen können. Dies entspricht einerseits dem Kinderrecht auf Gleichbehandlung und kann andererseits Risiken hinsichtlich der Entwicklung von Kindern und Jugendlichen ermöglichen, wenn Vorschläge der KI nicht förderlich oder gar schädlich für diese sind. Umso bedeutsamer sei es Standards und Regelungen für die Entwicklung und Anwendung künstlicher Intelligenz zu entwickeln sowie zu implementieren. Nach der Verabschiedung des AI-Acts der Europäischen Union gelte es daher nun praktische Leitlinien zur Umsetzung auf den Weg zu bringen. Diese sollten Entwickler*innen und Anbietenden von KI deutliche Vorgaben und Orientierungen bieten, wie Kinderrechte bereits in den Prozessen zur Erarbeitungen der Technologien berücksichtigt werden können. Diesbezüglich kündigte Beeban Kidron an, dass die 5Rights Foundation an solchen Hinweisen arbeite und in wenigen Monaten einen KI-Kodex vorlegen wird, der ebendieses Ziel verfolgt und Kinderrechte bereits im Designprozess (child rights by design) beachten wird.