L'avancement de la technologie dedeepfakea suscité de sérieux défis pour la sécurité numérique. Au Brésil, ce type de fraude se répand rapidement : en octobre 2024, la Police Civile du District Fédéral a lancé l'opération « DeGenerative AI », dans le but de démanteler une bande spécialisée dans l'intrusion dans des comptes bancaires en utilisant des applications d'intelligence artificielle.
Le groupe investigué a effectué plus de 550 tentatives d'intrusion dans les comptes bancaires de clients de banques numériques, par le biais d'attaques coordonnées, d'utilisation de données de tiers et de deepfake, grâce auxquels ils ont réussi à reproduire l'image des clients pour valider les procédures d'ouverture de comptes et l'activation de nouveaux dispositifs. La bande a réussi à déplacer environ 110 000 000 R$ par le biais de comptes PF et PJ, dans des activités suggérant un blanchiment d'argent — les dégâts n'ont été moins importants grâce à l'audit de prévention des fraudes des banques, qui a réussi à bloquer une grande partie des fraudes.
La technique de deepfake est en constante évolution — et tend à croître encore davantage : selon une étude de Deloitte, il est possible de trouver sur le deep web des logiciels de fraude dont les prix varient de 20 dollars américains à plusieurs milliers de dollars, ce qui montre le pouvoir de l'économie mondiale de la fraude, terme utilisé par Javelin Strategy & Research pour parler de cette croissance des activités criminelles menées à l'échelle mondiale, incluant divers types de fraudes.
Selon le rapport sur la fraude financière, réalisé par idwall, les fraudes de haute complexité ont augmenté de 16 % lorsque l'on compare le premier trimestre de 2023 à celui de 2024. Mais lorsque nous parlons de haute complexité, quelles fraudes les entreprises doivent-elles surveiller ?
Il existe deux types les plus courants : la création d'utilisateurs et de documents avec des données synthétiques, où les fraudeurs génèrent des documents et des visages falsifiés à partir de données réelles, rendant la fraude plus convaincante et difficile à détecter ; et la manipulation de selfies, où un document authentique est combiné avec une photo générée pardeepfakepour contourner les systèmes de reconnaissance faciale. Ces fraudes peuvent se produire à différents moments du parcours numérique, comme lors de l'inscription de nouveaux clients, lors du changement d'appareils ou de mots de passe, et lors des demandes de nouveaux produits et crédits, par exemple.
Créer des solutions efficaces de sécurité numérique est aussi complexe que la prévention des fraudes — surtout lorsque l'on considère que le marché brésilien présente des particularités, telles que des modèles de téléphones portables et des systèmes d'exploitation variés, des appareils mobiles plus anciens en usage et une partie de la population ayant un accès limité à Internet, ce qui complique la mise en œuvre de technologies de sécurité avancées.
Cependant, même face aux adversités, il est essentiel de garantir un niveau élevé de protection contre les fraudeurs qui améliorent constamment leurs techniques ; c'est pourquoi de nombreuses entreprises ont commencé à tester leurs outils en utilisant certaines méthodes déjà employées par les fraudeurs, comme des masques 2D et 3D, dans le but de simuler des visages et de tenter de contourner les systèmes d'authentification. De plus, exiger des certifications garantissant que la validation biométrique utilisée est efficace dans la détection des deepfakes — comme c'est le cas du label iBeta 2 — est primordial pour que les entreprises adoptent une technologie fiable et sécurisée.
Cependant, la vérification biométrique seule ne suffit pas à détecter les deepfakes : une approche multicouches est nécessaire. Pour confirmer la véracité des données de l'utilisateur avec une précision accrue, il est nécessaire de combiner cette technologie avec d'autres ressources, telles que la documentoscopie, la reconnaissance optique de caractères (OCR) et barrière-planczut. L'intégration de ces ressources de validation peut empêcher qu'un utilisateur soit accepté dans le processus deintégrationde l'entreprise utilisant de faux données ou des documents d'une autre personne, par exemple.
Avec l'avancement des outils d'IA générative et des techniques sophistiquées qui rendent les fraudes plus faciles et moins coûteuses à réaliser, les fraudes issues des deepfakes ont tendance à s'intensifier encore plus, passant de l'illégalité au « détail ». Dans ce contexte, les entreprises doivent investir dès que possible dans des solutions qui connectent la technologie, l'automatisation et l'intelligence, en optant pour des solutions centralisées qui intègrent toutes les données d'inscription, documentaires et biométriques de l'utilisateur dans un même environnement.