Die Nationale Datenschutzbehörde (ANPD) Brasiliens hat kürzlich eine Beschwerde von Meta, dem Eigentümerunternehmen von Facebook, abgelehnt, die versuchte, Daten brasilianischer Nutzer zur Schulung ihrer Künstlichen Intelligenz (KI) zu verwenden. Diese Entscheidung hebt erhebliche Bedenken hinsichtlich der Ethik und Sicherheit bei der Nutzung von Daten für die Entwicklung von KI hervor.
Marcell Rosa, Generaldirektor und Vizepräsident für Vertrieb in Lateinamerika bei Clevertap, warnt vor den Risiken im Zusammenhang mit der Nutzung von Daten, die von Plattformen gesammelt werden, auf denen Desinformation und persönliche Angriffe üblich sind. „Wenn KI aus voreingenommenen und oft schädlichen Informationen lernt, besteht die Gefahr, dass diese Maschinen nicht nur reproduzieren, sondern auch negative und verzerrte Verhaltensweisen verstärken“, sagt Rosa.
Das Problem gewinnt beunruhigende Dimensionen, wenn wir den brasilianischen Wahlkontext betrachten. Während der Wahlen 2022 berichtete die Oberste Wahlbehörde (TSE), täglich mehr als 500 Warnungen über Fake News nur im zweiten Wahlgang erhalten zu haben.
Die Hauptsorge ist, dass KI, die mit Meinungen gewöhnlicher Menschen trainiert wurde, die häufig von Desinformation beeinflusst sind, negative Muster replizieren und verstärken könnte. „KI neigt dazu, menschliches Verhalten zu replizieren, und wenn dieses Verhalten durch Polarisierung und Mangel an Zivilität gekennzeichnet ist, spiegelt die Technologie unweigerlich diese Fehler wider“, erklärt Rosa.
Die Entscheidung der ANPD wird als ein wichtiger Schritt angesehen, um den verantwortungsvollen und ethischen Umgang mit Daten beim Training von KI zu gewährleisten. „Der Schutz der Privatsphäre der Nutzer und die Integrität der Informationen sind essenziell für die Entwicklung von Technologien, die der Gesellschaft wirklich zugutekommen“, schließt Rosa.
Dieser Fall unterstreicht die dringende Notwendigkeit eines kritischeren und regulierteren Ansatzes bei der Erhebung und Verwendung von Daten durch digitale Plattformen. Ziel ist es, die Integrität der Informationen zu schützen und sicherzustellen, dass die KI-Entwicklung auf zuverlässigen und respektvollen Daten basiert.