Inteligența Artificială (IA) este adesea văzută ca o tehnologie revoluționară, capabilă să ofere eficiență, precizie și să deschidă noi oportunități strategice. Cu toate acestea, pe măsură ce companiile beneficiază de avantajele IA, apare și o provocare critică și adesea trecută cu vederea: corectitudinea algoritmică. Prejudecățile ascunse din aceste sisteme pot compromite nu numai eficiența deciziilor de afaceri, ci pot genera și consecințe juridice, etice și sociale semnificative.
Prezența erorilor algoritmice poate fi explicată prin natura însăși a inteligenței artificiale, în special în învățarea automată. Modelele sunt antrenate cu date istorice, iar atunci când aceste date reflectă prejudecăți sau tendințe sociale, algoritmii ajung în mod natural să perpetueze aceste erori. Pe lângă erorile din informații, algoritmul în sine poate introduce dezechilibre în ponderarea factorilor efectuați sau în datele utilizate ca proxy - adică date care înlocuiesc informațiile originale, dar nu sunt ideale pentru acea analiză.
Un exemplu emblematic al acestui fenomen îl reprezintă utilizarea recunoașterii faciale, în special în contexte sensibile, cum ar fi siguranța publică. Mai multe orașe braziliene au adoptat sisteme automate pentru a crește eficacitatea acțiunilor poliției, dar analizele arată că acești algoritmi fac adesea erori semnificative, mai ales atunci când identifică persoane din anumite grupuri etnice, cum ar fi persoanele de culoare. Studiile realizate de cercetătoarea MIT Joy Buolamwini au arătat că algoritmii comerciali au rate de eroare de peste 30% pentru femeile de culoare, în timp ce pentru bărbații albi, rata scade dramatic la mai puțin de 1%.
Legislația braziliană: mai multă rigiditate în viitor
În Brazilia, pe lângă Legea generală privind protecția datelor (LGPD), este în curs de elaborare și Cadrul juridic privind inteligența artificială (proiectul de lege nr. 2338/2023), care stabilește linii directoare generale pentru dezvoltarea și aplicarea inteligenței artificiale în țară.
Deși nu a fost încă aprobat, acest proiect de lege conturează deja drepturi pe care companiile trebuie să le respecte, cum ar fi: dreptul la informare prealabilă (informarea atunci când utilizatorul interacționează cu un sistem de inteligență artificială), dreptul la o explicație a deciziilor automatizate, dreptul de a contesta deciziile algoritmice și dreptul la nediscriminare din cauza prejudecăților algoritmice.
Aceste aspecte vor impune companiilor să implementeze transparența în sistemele de inteligență artificială generativă (de exemplu, clarificând momentul în care un text sau un răspuns a fost generat automat) și mecanisme de audit pentru a explica modul în care modelul a ajuns la un anumit rezultat.
Guvernanță algoritmică: Soluția la prejudecăți
Pentru companii, prejudecățile algoritmice depășesc sfera etică și devin probleme strategice semnificative. Algoritmii părtinitori au potențialul de a distorsiona deciziile esențiale în procesele interne, cum ar fi recrutarea, acordarea de credite și analiza pieței. De exemplu, un algoritm de analiză a performanței sucursalei care supraestimează sistematic regiunile urbane în detrimentul regiunilor periferice (din cauza datelor incomplete sau a prejudecăților) poate duce la investiții direcționate greșit. Astfel, prejudecățile ascunse subminează eficacitatea strategiilor bazate pe date, determinând directorii să ia decizii bazate pe informații parțial incorecte.
Aceste prejudecăți pot fi corectate, dar vor depinde de o structură de guvernanță algoritmică, concentrată pe diversitatea datelor utilizate, transparența proceselor și includerea unor echipe diverse și multidisciplinare în dezvoltarea tehnologică. Investind în diversitatea echipelor tehnice, de exemplu, companiile pot identifica mai rapid potențialele surse de prejudecăți, asigurându-se că sunt luate în considerare perspective diferite și că defectele sunt detectate din timp.
În plus, utilizarea instrumentelor de monitorizare continuă este esențială. Aceste sisteme ajută la detectarea erorilor algoritmice în timp real, permițând ajustări rapide și minimizând impactul negativ.
Transparența este o altă practică esențială în atenuarea prejudecăților. Algoritmii nu ar trebui să funcționeze ca niște cutii negre, ci mai degrabă ca sisteme clare și explicabile. Atunci când companiile optează pentru transparență, ele câștigă încrederea clienților, investitorilor și autorităților de reglementare. Transparența facilitează auditurile externe, încurajând o cultură a responsabilității comune în managementul inteligenței artificiale.
Alte inițiative includ respectarea cadrelor și certificărilor pentru o guvernanță responsabilă a IA. Aceasta include crearea de comitete interne de etică în domeniul IA, definirea politicilor corporative pentru utilizarea acesteia și adoptarea standardelor internaționale. De exemplu, cadre precum ISO/IEC 42001 (managementul inteligenței artificiale), ISO/IEC 27001 (securitatea informațiilor) și ISO/IEC 27701 (confidențialitate) ajută la structurarea controalelor în procesele de date utilizate de IA generativă. Un alt exemplu este setul de practici recomandate de Institutul Național de Standarde și Tehnologie din SUA (NIST) care ghidează managementul algoritmic al riscurilor, acoperind detectarea prejudecăților, verificările calității datelor și monitorizarea continuă a modelelor.
Consultanțele specializate joacă un rol strategic în acest scenariu. Cu expertiză în inteligență artificială responsabilă, guvernanță algoritmică și conformitate cu reglementările, aceste companii ajută organizațiile nu doar să evite riscurile, ci și să transforme capitalul propriu într-un avantaj competitiv. Activitatea acestor consultanțe variază de la evaluări detaliate ale riscurilor până la dezvoltarea de politici interne și instruire corporativă privind etica inteligenței artificiale, asigurându-se că echipele sunt pregătite să identifice și să atenueze potențialele prejudecăți algoritmice.
Prin urmare, atenuarea prejudecăților algoritmice nu este doar o măsură preventivă, ci o abordare strategică. Companiile care se concentrează pe corectitudinea algoritmică demonstrează responsabilitate socială, își consolidează reputația și se protejează împotriva sancțiunilor legale și a crizelor publice. Algoritmii imparțiali tind să ofere informații mai precise și echilibrate, crescând eficacitatea deciziilor de afaceri și consolidând poziția competitivă a organizațiilor pe piață.
De Sylvio Sobreira Vieira, CEO & Head Consulting la SVX Consultoria