Accueil Articles Les progrès de l'IA exigent une stratégie de gouvernance

Les progrès de l'IA exigent une stratégie de gouvernance

C'est un fait : au Brésil, au moins 98 % des entreprises ont intégré l'intelligence artificielle à leurs stratégies commerciales, selon une étude menée fin 2024. Le problème, cependant, est que seulement 25 % des organisations se déclarent prêtes à mettre en œuvre l'IA. Les autres souffrent de limitations d'infrastructure, de gestion des données et d'une pénurie de talents spécialisés. Cela ne signifie pas pour autant que les 75 % restants attendent des conditions idéales pour faire avancer leurs projets : au contraire, ces entreprises continuent de déployer cette technologie.

Le problème est que seule une entreprise sur cinq est capable d'intégrer l'IA à ses activités, selon un rapport mondial récemment publié par Qlik en partenariat avec ESG. De plus, seulement 47 % des entreprises ont déclaré avoir mis en œuvre des politiques de gouvernance des données. Ces chiffres sont mondiaux, et il ne serait pas surprenant que les statistiques brésiliennes soient encore plus élevées. Et même si l'IA est actuellement appliquée de manière cloisonnée et que le point d'entrée de la technologie est généralement le service client, des risques financiers, réglementaires et de réputation subsistent.

Les entreprises qui choisissent de mettre en œuvre l'IA sans préparation adéquate se heurtent à de nombreux obstacles. Des études de cas ont montré que des algorithmes mal gérés peuvent perpétuer des biais ou compromettre la confidentialité, entraînant des dommages réputationnels et financiers. La gouvernance de l'IA n'est pas seulement une question technologique, mais aussi une question d'exécution et de diligence raisonnable : sans stratégie bien définie, les risques augmentent au rythme des opportunités, des atteintes à la vie privée et de l'utilisation abusive des données aux décisions automatisées opaques ou biaisées qui génèrent la méfiance.

Pression réglementaire et conformité : fondements de la gouvernance de l’IA

La nécessité d’établir une gouvernance de l’IA n’est pas seulement apparue au niveau des entreprises : de nouvelles réglementations émergent et les progrès ont été rapides, y compris au Brésil.  

En décembre 2024, le Sénat fédéral a approuvé le projet de loi 2338/2023 , qui propose un cadre réglementaire pour l'IA, assorti de lignes directrices pour une utilisation responsable. Ce projet de loi adopte une approche fondée sur les risques , similaire à celle de l'Union européenne, classant les systèmes d'IA en fonction de leur potentiel à porter atteinte aux droits fondamentaux. Les applications présentant un risque excessif, telles que les algorithmes d'armes autonomes ou les outils de surveillance de masse, seront interdites , les systèmes d'IA génératifs et à usage général devront faire l'objet d'une évaluation des risques préalable avant leur commercialisation.

Des exigences de transparence s'appliquent également, par exemple l'obligation pour les développeurs de divulguer s'ils ont utilisé du contenu protégé par le droit d'auteur lors de l'entraînement des modèles. Parallèlement, des discussions sont en cours pour confier à l'Autorité nationale de protection des données (ANPD) un rôle central dans la coordination de la gouvernance de l'IA dans le pays, en s'appuyant sur le cadre de protection des données existant. Ces initiatives législatives indiquent que les entreprises auront bientôt des obligations claires concernant le développement et l'utilisation de l'IA, depuis les pratiques de reporting et d'atténuation des risques jusqu'à la comptabilisation des impacts algorithmiques.

Aux États-Unis et en Europe, les régulateurs ont renforcé la surveillance des algorithmes, notamment après la popularisation des outils d'IA générative, qui a suscité un débat public. L'AI ACT est déjà entré en vigueur dans l'UE et sa mise en œuvre devrait prendre fin le 2 août 2026, date à laquelle la plupart des obligations de la norme deviendront applicables, notamment les exigences relatives aux systèmes d'IA à haut risque et aux modèles d'IA à usage général.  

Transparence, éthique et responsabilité algorithmique

Au-delà de l'aspect juridique, la gouvernance de l'IA englobe des principes éthiques et responsables qui vont au-delà du simple respect de la loi. Les entreprises prennent conscience que, pour gagner la confiance des clients, des investisseurs et de la société dans son ensemble, la transparence sur l'utilisation de l'IA est essentielle. Cela implique l'adoption d'une série de pratiques internes, telles que l'évaluation préalable de l'impact des algorithmes, une gestion rigoureuse de la qualité des données et un audit indépendant des modèles.  

Il est également essentiel de mettre en œuvre des politiques de gouvernance des données qui filtrent et sélectionnent soigneusement les données de formation, en évitant les biais discriminatoires qui peuvent être intégrés dans les informations collectées.  

Une fois qu'un modèle d'IA est opérationnel, l'entreprise doit procéder à des tests, des validations et des audits périodiques de ses algorithmes, documentant ainsi les décisions et les critères utilisés. Cet enregistrement présente deux avantages : il permet d'expliquer le fonctionnement du système et de responsabiliser les utilisateurs en cas de défaillance ou de résultat inapproprié.

Gouvernance : l'innovation à valeur compétitive

Une idée reçue courante est que la gouvernance de l'IA limite l'innovation. Au contraire, une bonne stratégie de gouvernance permet une innovation sûre, libérant ainsi le plein potentiel de l'IA de manière responsable. Les entreprises qui structurent leurs cadres de gouvernance en amont peuvent atténuer les risques avant qu'ils ne deviennent problématiques, évitant ainsi des reprises ou des scandales qui retarderaient les projets.  

En conséquence, ces organisations tirent plus rapidement profit de leurs initiatives. Les données du marché confirment cette corrélation : une enquête mondiale a révélé que les entreprises supervisant activement la gouvernance de l'IA par leurs dirigeants constatent des retombées financières supérieures grâce à l'utilisation de l'IA avancée.

De plus, nous vivons à une époque où les consommateurs et les investisseurs sont de plus en plus conscients de l’utilisation éthique de la technologie – et démontrer cet engagement en matière de gouvernance peut différencier une entreprise de la concurrence.  

Concrètement, les organisations dotées d'une gouvernance mature constatent des améliorations non seulement en matière de sécurité, mais aussi d'efficacité du développement. Les dirigeants soulignent des réductions de la durée du cycle de vie des projets d'IA grâce à des normes claires dès le départ. En effet, lorsque les exigences de confidentialité, d'explicabilité et de qualité sont prises en compte dès la phase de conception, des corrections coûteuses sont évitées ultérieurement.  

La gouvernance sert ainsi de guide pour une innovation durable, en orientant les investissements et la manière de déployer les solutions de manière responsable. En alignant les initiatives d'IA sur la stratégie et les valeurs de l'entreprise, la gouvernance garantit que l'innovation sert toujours les objectifs globaux de l'entreprise et de sa réputation, plutôt que de suivre une voie isolée ou potentiellement néfaste.  

Développer une stratégie de gouvernance de l'IA est avant tout une démarche stratégique pour se positionner face à la concurrence. Dans l'écosystème actuel, où pays et entreprises sont engagés dans une course technologique, ceux qui innovent avec confiance et crédibilité ouvrent la voie. Les grandes entreprises qui mettent en place des systèmes de gouvernance efficaces parviennent à concilier la réduction des risques et la maximisation des bénéfices de l'IA, plutôt que de sacrifier l'un au profit de l'autre.  

Enfin, la gouvernance de l'IA n'est plus une option, mais un impératif stratégique. Pour les grandes entreprises, élaborer une stratégie de gouvernance implique désormais de définir les normes, les contrôles et les valeurs qui guideront l'utilisation de l'intelligence artificielle dans les années à venir. Cela implique tout, du respect des réglementations émergentes à la création de mécanismes internes d'éthique et de transparence, visant à minimiser les risques et à maximiser la valeur de manière équilibrée. Ceux qui agissent rapidement récolteront les fruits d'une innovation constante et d'une solide réputation, se positionnant ainsi comme un acteur majeur sur un marché de plus en plus axé sur l'IA.

Claudio Costa
Claudio Costa
Claudio Costa est responsable de l'unité commerciale Business Consulting chez Selbetti.
ARTICLES CONNEXES

Laisser un commentaire

S'il vous plaît entrez votre commentaire!
Veuillez entrer votre nom ici

RÉCENT

LE PLUS POPULAIRE

[elfsight_cookie_consent id="1"]