L'anno 2023, in un certo modo, è stato l'anno regolatorio dell'Intelligenza Artificiale (IA). Ancora a maggio, Il Summit del G7 ha messo in evidenza l'importanza di promuovere guardrail per i sistemi avanzati di IA su basi globali
A agosto, è stata la volta della Cina di promulgare una legge specificamente associata all'IA Generativa, con l'intento di mitigare danni essenziali agli individui, mantenere la stabilità sociale e garantire la sua leadership regolamentare internazionale a lungo termine
Sulla scia di questo processo, spettò agli Stati Uniti, nella figura del suo allora presidente Biden, emettere un'ordinanza esecutiva che stabiliva di orientare l'applicazione dell'IA nel campo dell'affidabilità, sicurezza e protezione degli elementi fondamentali della sovranità americana
Tuttavia, la ciliegina sulla torta è stata, in larga misura, l'Atto sull'IA dell'Unione Europea, pre-approvato a dicembre 2023 e sancito all'inizio del 2024. Profondamente dibattuto e abbastanza ampio, L'Atto raggiunge lo status di una regolamentazione con vocazione internazionale concepita come quadro giuridico per lo sviluppo e l'applicazione di sistemi di IA per i paesi membri del blocco
In Brasile, la legge 2.338 dell'Intelligenza Artificiale, segna un'inflessione nella regolamentazione delle tecnologie emergenti nel paese. Su larga scala, la legge ha aspetti positivi, ma denota anche una certa fragilità in aree strategiche per lo sviluppo della nostra leadership nel campo dell'IA
Al centro della regolamentazione brasiliana si trovano disposizioni della Legge Generale sulla Protezione dei Dati (LGPD), sottolineando la protezione dei dati personali con enfasi sulla privacy. La legge intende, in questo modo, garantire che l'IA non comprometta i diritti individuali. La LGPD vuole anche incentivare l'innovazione, offrendo alcuni incentivi fiscali e sussidi per le aziende che investono in ricerca e sviluppo di IA. Questo aspetto mira a posizionare il Brasile come un hub di innovazione tecnologica, stimolando la competitività e la creazione di startup nel settore dell'IA. Per quanto riguarda gli impatti sociali, l'inclusione digitale e l'uso etico dell'IA per ridurre le disuguaglianze sono contemplati attraverso la promozione di programmi educativi e di formazione per popolazioni vulnerabili, preparare la forza lavoro per l'era dell'intelligenza artificiale. L'idea è mitigare gli impatti sociali negativi dell'automazione, promuovendo una transizione più equa
Tuttavia, ci sono punti negativi da evidenziare. Il primo di essi ruota attorno a un'eccessiva burocrazia, come l'esigenza di molteplici valutazioni e certificazioni che potrebbero sovraccaricare le aziende – specialmente startup e piccole imprese – con costi aggiuntivi e processi lunghi. Questo aspetto burocratico può scoraggiare l'innovazione e l'adozione di nuove tecnologie. Sebbene la legge abbia intenzioni interessanti, alcuni critici citano ambiguità in certe disposizioni, consentendo interpretazioni conflittuali e insicurezza giuridica. C'è mancanza di chiarezza riguardo alle responsabilità e alle penalità specifiche che renderanno difficile la loro applicazione pratica. Ci sono ancora preoccupazioni riguardo al potenziale uso della regolamentazione dell'IA per fini di controllo statale. Questo aspetto solleva questioni sulla protezione delle libertà civili e sui limiti dell'intervento dello Stato
Siamo, in ogni caso, di fronte a un importante traguardo nella regolamentazione dell'IA. Questo componente regolatorio è necessario per portare equilibrio tra protezione dei diritti, incentivo all'innovazione e promozione dell'inclusione sociale. Tuttavia, l'efficacia della legge dipenderà dalla sua attuazione pratica e dalla capacità di mitigare i rischi associati. La trasparenza, la chiarezza regolamentare e la vigilanza costante della società civile saranno essenziali per garantire che i benefici superino le sfide