Welt, angeführt von Sam Altman, CEO von OpenAI, steht im Zentrum einer weltweiten Debatte, nachdem Deutschland die Löschung der in der Europäischen Union gesammelten Irisdaten festgelegt hat. Die Entscheidung von BayLDA, Bayerns Datenschutzbehörde, ist ein Beispiel dafür, wie biometrische Daten Die Sammlung verlagert sich aus dem Science-Fiction-Bereich und wirkt sich direkt auf das Leben der Menschen aus.
Nach Angaben des Europäischen Datenschutzausschusses (EDPB) halten 701TP3 T der Europäer die Erfassung biometrischer Daten für invasiv, was Bedenken hinsichtlich der Verwendung und Speicherung dieser Informationen hervorhebt.
Alan NicolasExperte für künstliche Intelligenz für Unternehmen und Gründer von Lendar-Akademie [IA]“Die Verwendung biometrischer Daten ist keine Frage der Zukunft mehr. Die Menschen müssen verstehen, dass sie durch den Verzicht auf diese Daten ihre Privatsphäre und persönliche Sicherheit aufs Spiel setzen. Die Regulierung muss klarer sein, um die Personen zu schützen”, sagt er.
Was beim Iris-Scannen auf dem Spiel steht
Bayldas Entscheidung zwang World dazu, zuvor gesammelte Irisdaten zu löschen, mit der Begründung, es gebe keine ausreichende Rechtsgrundlage für die Erhebung. Obwohl das Unternehmen behauptet, dass Iriscodes bereits freiwillig gelöscht wurden, erfordert die Anordnung neue Verfahren, um die Einhaltung europäischer Regeln sicherzustellen.
Damien Kieran, Chief Privacy Officer von Tools for Humanity, betonte die Notwendigkeit einer genaueren Definition der Anonymisierung in der Europäischen Union. Es stellt sicher, dass Irisbilder nicht gespeichert werden, Kritiker dieser Praxis lassen jedoch Zweifel an der Verfolgung und Verwendung dieser Codes aufkommen.
Weil es jedem wichtig ist
In Brasilien hat World 20 Sammelstellen in Sao Paulo aktiviert, wo es bereits die Iris von mehr als 189 Tausend Menschen gescannt hat, obwohl das Unternehmen Anonymität verspricht, weisen Experten darauf hin, dass biometrische Daten hochsensibel sind und für unerlaubte Zwecke ausgenutzt werden können “Die Debatte ist unerlässlich, denn wir haben es mit Informationen zu tun, die zur Kontrolle oder Überwachung genutzt werden können, etwas, das jeden betrifft, egal ob in Europa oder in Brasilien”, kommentiert Nicolas.
In anderen Ländern wie Spanien und Kenia sah sich das Projekt ebenfalls mit rechtlichen Hindernissen konfrontiert. Im spanischen Fall wurde die Erhebung eingestellt, nachdem die Datenschutzbehörde der Ansicht war, dass die Praktiken gegen Datenschutzstandards verstießen.
Von der Fiktion zur Realität
Alan Nicolas erklärt, dass vor einigen Jahren die Nutzung biometrischer Daten zur Erstellung digitaler Identitäten Gegenstand von Science-Fiction-Filmen war, heute ist es eine Realität, die von der Authentifizierung auf Websites bis zum Kampf gegen falsche Profile und Deepfakes beeinflusst “Es geht nicht mehr um FiktionDie Frage ist nun, wie sichergestellt werden kann, dass diese Technologien den Menschen zugute kommen, ohne ihre Privatsphäre zu beeinträchtigen Technologie ist wie immer nicht der Bösewicht Was Pflege braucht, ist die Art und Weise, wie Menschen sie nutzen”, weist er darauf hin.
Die deutsche Entscheidung belegt, dass die Regulierung mit der Weiterentwicklung der künstlichen Intelligenz und der biometrischen Technologien Schritt halten muss “Die größte Herausforderung besteht darin, die Menschen über die Risiken aufzuklären und sicherzustellen, dass Regierungen und Unternehmen zusammenarbeiten, um klare Regeln zu schaffen. Leider kann die Gesetzgebung aus dem Nichts der Welt mit den Fortschritten und ethischen Fragen Schritt halten, die diese neuen Möglichkeiten aufwerfenWir müssen uns auf die technologische Ausbildung aller verlassen, damit sie sich der Potenziale und Gefahren jedes einzelnen Werkzeugs bewusst sind”, schließt Nicolas.