Diskriminierungen vorbeugen und Daten schützen

20250513_092701.jpg

Am zweiten Konferenztag des Europäischen Dialog zur Internetregulierung (EuroDIG) standen im französischen Strasbourg unter anderem die Zusammenhänge zwischen Künstlicher Intelligenz und Diskriminierung sowie die Auswirkungen von Neurotechnologien auf die Privatsphäre im Mittelpunkt. 

Im Workshop AI & non-discrimination in digital spaces: from prevention to redress wurde über diskriminierende Ergebnisse und Auswirkungen Künstlicher Intelligenz beraten und sich darüber ausgetauscht, ob und wie das Recht auf Gleichbehandlung durch diese Technologien gefördert werden kann. Dabei wurde betont, dass es zunächst sehr schwer festzustellen sei, ob eine Künstliche Intelligenz mit Absicht, bspw. wegen ihrer Programmierung oder ihres Designs zu diskriminierenden Resultaten kommt oder ob dies unbeabsichtigt geschieht. Mangelnde Transparenz und Kenntnis der Funktionsweisen dieser Systeme erschweren notwendige Klärungsprozesse. Daher bestand Einigkeit darüber, Anbietende und Entwickelnde von KI zu mehr Klarheit über die Programmierung und die Abläufe anzuhalten. Auch sollten die Systeme für die Ergebnisse verantwortlich gehalten werden. Insbesondere für solche Anwendungen, die einen großen Einfluss auf Menschen und ihre Rechte haben können, sieht der AI Act der Europäischen Union daher hohe Sicherheitsstandards vor. Als problematisch wurde jedoch diskutiert, ob und wie Programmierende diese Auswirkungen vorhersehen können. Um dies perspektivisch zu sichern wurde sich daher für einen verbindlichen Prozess zur Folgenabschätzung auf die Menschenrechte ausgesprochen und eine menschliche Aufsicht eingefordert. Mit Blick auf die Ausgangsfrage, ob und wie das Recht auf Gleichbehandlung durch diese Technologien befördert werden kann, zeigte sich eine große Übereinstimmung im Raum, dass Künstliche Intelligenz Diskriminierungen nicht verhindern könne, da sie auf Perspektiven und Mechanismen beruht, denen diese Diskriminierungen inherent sind. Jedoch könne KI dazu beitragen Diskriminierungen zu erkennen und somit einen Beitrag leisten diesen vorzubeugen.

Ob es eine neue Kategorie im Bereich des Datenschutzes im Zusammenhang mit Entwicklungen von Neurotechnologien benötige wurde im Plenarsaal des Europarates unter der Überschrift Neurotechnology and privacy: Navigating human rights and regulatory challenges in the age of neural data diskutiert. Die UN-Sonderbotschafterin für das Recht auf Privatsphäre, Ara Brian Nougreres, argumentierte für eine neue Klassifizierung besonders schutzwürdiger Daten. Neurotechnologische Systeme überwinden eine Grenze der Privatheit und offenbaren damit Zugang zu Daten, die Auskunft und Rückschlüsse auf unsere Gedanken, Gefühle und Identität zulassen. Um die Integrität des menschlichen Denkens zu wahren sei es daher notwendig die höchsten Schutzstandards für diese Daten anzuwenden. Gegen eine neue Datenschutzkategorie sprachen sich Damian Eke, Gründer der Afrikanischen Initiative zur Regulierung von Daten, und Petra Zandonella, Forschende an der Universität Graz, aus. Sie plädierten trotz der besonderen Bedeutung und des Werts dieser Daten keine neue Klassifikation zu entwickeln, sondern bereits bestehende Rechte auf Schutz persönlicher Daten weit zu interpretieren und ihnen somit umfassende Sicherheitsvorkehrungen zukommen zu lassen. Dafür spreche aktuell auch, dass es innerhalb der Wissenschaft keinen Konsens darüber gebe, ob und wie eine Abgrenzung hinsichtlich Neuro-, kognitiver, biometrischer oder auch genetischer Daten vorgenommen werde. Möglicherweise könne daher ein zielführender Ansatz sein, diese gemeinsam in der bestehenden Klassifizierung der Gesundheitsdaten zu führen. 

In die Debatte wurde auch das Konzept der persönlichen Integrität eingeführt, welches 2021 im deutschen Jugendschutzgesetz verankert wurde. Während dieses u.a. darauf abstellt anhand bereits gesammelter und ausgewerteter Daten Verleitungen und damit verbundene Beeinflussungen gegen die eigene Überzeugung zu unterbinden, gilt es mit Blick auf neurologische Daten Manipulationen vorzubeugen, die auf Informationen gründen, welche sich im Kopf eines Menschen gerade erst bilden und mitunter von diesem selbst noch gar nicht wahrgenommen worden sind. Ob dies zu einer Weiterentwicklung des Konzeptes der persönlichen Integrität führen wird oder dieses ggf. eines Ersatzes bedarf wird noch zu klären sein.


Torsten Krause, Stiftung Digitale Chancen