L'Autorité nationale brésilienne de protection des données (ANPD) a récemment rejeté une fonctionnalité de Meta, la société qui possède Facebook, qui cherchait à utiliser les données des utilisateurs brésiliens pour former son Intelligence artificielle (IA).Cette décision met en évidence d'importantes préoccupations concernant l'éthique et la sécurité dans l'utilisation des données pour le développement de l'IA.
Marcell Rosa, directeur général et vice-président des ventes en Amérique latine chez Clevertap, met en garde contre les risques associés à l'utilisation des données collectées à partir de plateformes où la désinformation et les attaques personnelles sont courantes. “Lorsque l'IA apprend à partir d'informations biaisées et souvent nuisibles, le risque est que ces machines non seulement reproduisent mais amplifient les comportements de” négatifs et déformés, explique Rosa.
Le problème prend des dimensions inquiétantes quand on considère le contexte électoral brésilien Lors des élections de 2022, la Cour électorale supérieure (TSE) a rapporté avoir reçu plus de 500 alertes quotidiennes sur les fausses nouvelles au seul second tour.
La principale préoccupation est que l'IA, formée avec les opinions de gens ordinaires souvent influencés par la désinformation, peut reproduire et amplifier des modèles négatifs.“A L'IA a tendance à reproduire le comportement humain, et lorsque ce comportement est caractérisé par la polarisation et le manque de civilité, la technologie reflète inévitablement ces défauts”, explique Rosa.
La décision de l'ANPD est considérée comme une étape importante pour assurer l'utilisation responsable et éthique des données dans la formation à l'IA.“La confidentialité des utilisateurs et l'intégrité de l'information sont essentielles pour le développement de technologies qui profitent vraiment à la société”, conclut Rosa.
Cette affaire souligne le besoin urgent d’une approche plus critique et réglementée de la collecte et de l’utilisation des données par les plateformes numériques, visant à protéger l’intégrité de l’information et à garantir que le développement de l’IA repose sur des données fiables et respectueuses.

