Eine Welt, angeführt von Sam Altman, CEO von OpenAI, steht im Mittelpunkt einer globalen Debatte, nachdem Deutschland die Ausschluss von Iris-Daten, die in der Europäischen Union gesammelt wurden, festgelegt hat. Die Entscheidung der BayLDA, der Datenschutzbehörde Bayerns, ist ein Beispiel dafür, wie die Erfassung biometrischer Daten aus dem Bereich der Science-Fiction in den Alltag der Menschen eindringt.
Laut dem Europäischen Datenschutzausschuss (EDPB) betrachten 70 % der Europäer die Erfassung biometrischer Daten als invasiv und äußern Bedenken darüber, wie diese Informationen verwendet und gespeichert werden.
Alan Nicolas, Experte für künstliche Intelligenz für Unternehmen und Gründer vonLegendäre Akademie[IA], warnt, dass die Auswirkungen dieser Entscheidung weit über die europäischen Grenzen hinausgehen. „Die Nutzung biometrischer Daten ist kein Thema der Zukunft mehr. Die Menschen müssen verstehen, dass sie beim Weitergeben dieser Daten ihre Privatsphäre und persönliche Sicherheit aufs Spiel setzen. Die Regulierung muss klarer sein, um die Einzelnen zu schützen“, erklärt er.
Was beim Iris-Scan auf dem Spiel steht
Die Entscheidung der BayLDA zwang die World, zuvor gesammelte Iris-Daten zu löschen, da es keine ausreichende rechtliche Grundlage für die Sammlung gab. Obwohl das Unternehmen behauptet, dass die Iris-Codes bereits freiwillig gelöscht wurden, verlangt die Anordnung neue Verfahren, um die Einhaltung der europäischen Vorschriften sicherzustellen.
Damien Kieran, Chief Privacy Officer von Tools for Humanity, betonte die Notwendigkeit einer genaueren Definition von Anonymisierung in der Europäischen Union. Er versichert, dass die Irisbilder nicht gespeichert werden, aber Kritiker der Praxis heben Zweifel an der Verfolgung und Verwendung dieser Codes hervor.
Weil es für alle wichtig ist
In Brasilien hat World 20 Sammelpunkte in São Paulo eingerichtet, wo bereits die Iriden von über 189.000 Menschen gescannt wurden. Obwohl das Unternehmen Anonymität verspricht, weisen Experten darauf hin, dass biometrische Daten äußerst sensibel sind und für nicht genehmigte Zwecke genutzt werden können. „Die Debatte ist essenziell, weil wir mit Informationen umgehen, die für Kontrolle oder Überwachung genutzt werden können, etwas, das alle betrifft, unabhängig davon, ob sie in Europa oder Brasilien sind“, kommentiert Nicolas.
In anderen Ländern, wie Spanien und Kenia, stieß das Projekt ebenfalls auf rechtliche Hindernisse. Im spanischen Fall wurde die Erhebung eingestellt, nachdem die Datenschutzbehörde festgestellt hatte, dass die Praktiken gegen Datenschutzbestimmungen verstießen.
Von der Fiktion zur Realität
Alan Nicolas erklärt, dass vor wenigen Jahren die Verwendung biometrischer Daten zur Erstellung digitaler Identitäten ein Thema von Science-Fiction-Filmen war. Heute ist es eine Realität, die von der Authentifizierung auf Websites bis hin zum Kampf gegen gefälschte Profile und Deepfakes reicht. Es ist nicht mehr nur Fiktion. Die Frage ist jetzt, wie man sicherstellen kann, dass diese Technologien den Menschen zugutekommen, ohne ihre Privatsphäre zu gefährden. Wie immer ist die Technologie nicht der Bösewicht. Es ist die Art und Weise, wie die Menschen sie nutzen, die Aufmerksamkeit erfordert, betont er.
Die deutsche Entscheidung zeigt, dass die Regulierung mit dem Fortschritt der künstlichen Intelligenz und biometrischer Technologien Schritt halten muss. „Die größte Herausforderung besteht darin, die Menschen über die Risiken aufzuklären und sicherzustellen, dass Regierungen und Unternehmen gemeinsam klare Regeln entwickeln. Leider kann keine Gesetzgebung auf der Welt mit den Fortschritten und ethischen Fragen Schritt halten, die durch diese neuen Möglichkeiten aufgeworfen werden. Wir bleiben auf die technologische Bildung aller angewiesen, damit sie sich der Potenziale und Gefahren jeder Werkzeuges bewusst sind“, schließt Nicolas.