Home Articoli Il progresso dell'intelligenza artificiale richiede una strategia di governance

Il progresso dell'intelligenza artificiale richiede una strategia di governance

È un dato di fatto: le aziende brasiliane hanno integrato l'Intelligenza Artificiale nelle proprie strategie aziendali, almeno il 98% di esse, secondo una ricerca condotta alla fine del 2024. Il problema, tuttavia, è che solo il 25% delle organizzazioni si è dichiarato pronto a implementare l'IA. Il resto soffre di limitazioni infrastrutturali, di gestione dei dati e di carenza di talenti specializzati. Ma questo non significa che il restante 75% stia aspettando le condizioni ideali per portare avanti i propri progetti: al contrario, queste aziende continuano a implementare la tecnologia.

Il problema è che solo un'azienda su cinque è in grado di integrare l'intelligenza artificiale nel proprio business, secondo un rapporto globale recentemente pubblicato e preparato da Qlik in collaborazione con ESG. Inoltre, solo il 47% delle aziende ha dichiarato di aver implementato politiche di governance dei dati. Questi dati sono globali e non sorprenderebbe se le statistiche brasiliane fossero ancora più elevate. E sebbene l'intelligenza artificiale sia attualmente applicata in modo isolato e il "punto di ingresso" della tecnologia sia solitamente il servizio clienti, sussistono ancora rischi finanziari, normativi e reputazionali.

Le aziende che scelgono di implementare l'IA senza un'adeguata preparazione si trovano ad affrontare numerosi ostacoli. Casi di studio hanno dimostrato che algoritmi mal gestiti possono perpetuare pregiudizi o compromettere la privacy, con conseguenti danni reputazionali e finanziari. La governance dell'IA non è solo una questione tecnologica, ma anche di esecuzione e due diligence: senza una strategia ben definita, i rischi crescono parallelamente alle opportunità, dalle violazioni della privacy e dall'uso improprio dei dati alle decisioni automatizzate opache o distorte che generano sfiducia.

Pressione normativa e conformità: fondamenti della governance dell'IA

L'esigenza di stabilire una governance dell'IA non è nata solo dal fronte aziendale: stanno emergendo nuove normative e i progressi sono stati rapidi, anche in Brasile.  

Nel dicembre 2024, il Senato federale ha approvato il disegno di legge 2338/2023 , che propone un quadro normativo per l'IA con linee guida per un uso responsabile. Il disegno di legge adotta un approccio basato sul rischio , simile a quello dell'Unione Europea, classificando i sistemi di IA in base al loro potenziale di ledere i diritti fondamentali. Le applicazioni che presentano un rischio eccessivo, come algoritmi per armi autonome o strumenti di sorveglianza di massa, saranno vietate , i sistemi di IA generativi e generici dovranno essere sottoposti a valutazioni del rischio preventive prima di raggiungere il mercato.

Esistono anche requisiti di trasparenza, ad esempio imponendo agli sviluppatori di dichiarare se hanno utilizzato contenuti protetti da copyright durante l'addestramento dei modelli. Allo stesso tempo, si discute sull'assegnazione all'Autorità Nazionale per la Protezione dei Dati (ANPD) di un ruolo centrale nel coordinamento della governance dell'IA nel Paese, sfruttando il quadro normativo esistente in materia di protezione dei dati. Queste iniziative legislative indicano che le aziende avranno presto obblighi chiari in merito allo sviluppo e all'utilizzo dell'IA, dalle pratiche di reporting alla mitigazione dei rischi, fino alla contabilizzazione degli impatti algoritmici.

Negli Stati Uniti e in Europa, le autorità di regolamentazione hanno intensificato il controllo degli algoritmi, in particolare dopo la diffusione degli strumenti di intelligenza artificiale generativa, che ha suscitato un acceso dibattito pubblico. L'AI ACT è già entrato in vigore nell'UE e la sua attuazione dovrebbe concludersi il 2 agosto 2026, data in cui entreranno in vigore la maggior parte degli obblighi previsti dalla norma, compresi i requisiti per i sistemi di intelligenza artificiale ad alto rischio e i modelli di intelligenza artificiale per uso generale.  

Trasparenza, etica e responsabilità algoritmica

Oltre all'aspetto legale, la governance dell'IA comprende principi etici e di responsabilità che vanno oltre la semplice "conformità alla legge". Le aziende si stanno rendendo conto che, per guadagnarsi la fiducia di clienti, investitori e della società nel suo complesso, la trasparenza sulle modalità di utilizzo dell'IA è essenziale. Ciò implica l'adozione di una serie di pratiche interne, come la valutazione preventiva dell'impatto algoritmico, una rigorosa gestione della qualità dei dati e un audit indipendente dei modelli.  

È inoltre fondamentale implementare politiche di governance dei dati che filtrino e selezionino attentamente i dati di addestramento, evitando pregiudizi discriminatori che potrebbero essere incorporati nelle informazioni raccolte.  

Una volta che un modello di intelligenza artificiale è operativo, l'azienda deve condurre test, convalide e audit periodici dei suoi algoritmi, documentando le decisioni e i criteri utilizzati. Questa documentazione ha due vantaggi: aiuta a spiegare il funzionamento del sistema e consente di assumersi le responsabilità in caso di fallimento o esito inappropriato.

Governance: innovazione con valore competitivo

Un luogo comune è che la governance dell'IA limiti l'innovazione. Al contrario, una buona strategia di governance consente un'innovazione sicura, liberando responsabilmente il pieno potenziale dell'IA. Le aziende che strutturano tempestivamente i propri quadri di governance possono mitigare i rischi prima che diventino problemi, evitando rilavorazioni o scandali che ritarderebbero i progetti.  

Di conseguenza, queste organizzazioni ottengono più rapidamente un valore maggiore dalle loro iniziative. I dati di mercato rafforzano questa correlazione: un'indagine globale ha rilevato che le aziende con una supervisione attiva della governance dell'IA riportano impatti finanziari superiori grazie all'uso di IA avanzata.

Inoltre, viviamo in un'epoca in cui consumatori e investitori sono sempre più consapevoli dell'uso etico della tecnologia e dimostrare questo impegno nei confronti della governance può differenziare un'azienda dalla concorrenza.  

In termini pratici, le organizzazioni con una governance matura segnalano miglioramenti non solo in termini di sicurezza, ma anche di efficienza nello sviluppo: i dirigenti sottolineano la riduzione dei tempi di ciclo dei progetti di intelligenza artificiale grazie a standard chiari fin dall'inizio. In altre parole, quando i requisiti di privacy, spiegabilità e qualità vengono considerati fin dalle prime fasi di progettazione, si evitano costose correzioni in seguito.  

La governance, quindi, funge da guida per l'innovazione sostenibile, indicando dove investire e come scalare le soluzioni in modo responsabile. E allineando le iniziative di intelligenza artificiale alla strategia e ai valori aziendali, la governance garantisce che l'innovazione sia sempre al servizio di obiettivi aziendali e reputazionali più ampi, anziché seguire un percorso isolato o potenzialmente dannoso.  

Sviluppare una strategia di governance dell'IA è, soprattutto, una mossa strategica per il posizionamento competitivo. Nell'ecosistema odierno, in cui paesi e aziende sono impegnati in una corsa tecnologica, chi innova con fiducia e credibilità è in testa. Le grandi aziende che implementano sistemi di governance efficienti sono in grado di bilanciare la mitigazione del rischio con la massimizzazione dei benefici dell'IA, anziché sacrificare l'una a favore dell'altra.  

Infine, la governance dell'IA non è più un optional, ma un imperativo strategico. Per le grandi aziende, creare una strategia di governance significa ora definire gli standard, i controlli e i valori che guideranno l'uso dell'intelligenza artificiale nei prossimi anni. Ciò implica tutto, dal rispetto delle normative emergenti alla creazione di meccanismi interni di etica e trasparenza, con l'obiettivo di minimizzare il rischio e massimizzare il valore in modo equilibrato. Chi agisce tempestivamente raccoglierà i frutti in termini di innovazione costante e solida reputazione, posizionandosi all'avanguardia in un mercato sempre più guidato dall'IA.

Claudio Costa
Claudio Costa
Claudio Costa è responsabile della Business Unit Business Consulting di Selbetti.
ARTICOLI CORRELATI

LASCIA UN COMMENTO

Inserisci il tuo commento!
Inserisci qui il tuo nome

RECENTE

I PIÙ POPOLARI

[elfsight_cookie_consent id="1"]