Rok 2023, w pewnym sensie, to był rok regulacyjny sztucznej inteligencji (SI). Wciąż w maju, Szczyt G7 podkreślił znaczenie promowania zabezpieczeń dla zaawansowanych systemów AI na podstawach globalnych
W sierpniu, nadeszła pora, aby Chiny wprowadziły ustawę ściśle związaną z generatywną sztuczną inteligencją, w celu złagodzenia istotnych strat dla jednostek, utrzymywać stabilność społeczną i zapewnić swoją międzynarodową pozycję regulacyjną na dłuższą metę
W ramach tego procesu, przypadło USA, w postaci ówczesnego prezydenta Bidena, wydać rozporządzenie wykonawcze, które miało na celu ukierunkowanie zastosowania AI w dziedzinie niezawodności, bezpieczeństwo i ochrona podstawowych elementów amerykańskiej suwerenności
Jednak, wisienka na torcie to była, w dużej mierze, Akt o AI Unii Europejskiej, wstępnie zatwierdzony w grudniu 2023 roku i podpisany na początku 2024 roku. Głęboko omawiany i dość wszechstronny, Akt osiąga status regulacji o międzynarodowym charakterze, zaprojektowanej jako ramy prawne dla rozwoju i stosowania systemów AI w krajach członkowskich bloku
W Brazylii, ustawa 2.338 sztucznej inteligencji, stanowi punkt zwrotny w regulacji technologii wschodzących w kraju. Na dużą skalę, ustawa ma pozytywne aspekty, ale jednak oznacza pewną kruchość w strategicznych obszarach dla rozwoju naszego przywództwa w dziedzinie AI
W centrum regulacji brazylijskiej znajdują się przepisy Ustawy o Ochronie Danych Osobowych (LGPD), podkreślając ochronę danych osobowych z naciskiem na prywatność. Ustawa ma na celu, w ten sposób, zapewnić, że AI nie narusza praw jednostki. LGPD również chce zachęcać do innowacji, oferując pewne ulgi podatkowe i dotacje dla firm inwestujących w badania i rozwój sztucznej inteligencji. Ten aspekt ma na celu pozycjonowanie Brazylii jako centrum innowacji technologicznych, stymulując konkurencyjność i tworzenie startupów w sektorze AI. Jeśli chodzi o wpływy społeczne, cyfrowa inkluzja i etyczne wykorzystanie AI w celu redukcji nierówności są uwzględnione poprzez promowanie programów edukacyjnych i szkoleń dla populacji wrażliwych, przygotowanie siły roboczej na erę sztucznej inteligencji. Pomysł polega na złagodzeniu negatywnych skutków społecznych automatyzacji, promując bardziej sprawiedliwą transformację
Jednakże, są negatywne punkty do podkreślenia. Pierwszy z nich kręci się wokół nadmiernej biurokracji, jak wymaganie wielu ocen i certyfikacji, które mogą obciążyć firmy – szczególnie startupy i małe firmy – z dodatkowymi kosztami i długotrwałymi procesami. Ten aspekt biurokratyczny może zniechęcać do innowacji i przyjmowania nowych technologii. Chociaż prawo ma interesujące intencje, niektórzy krytycy wskazują na niejednoznaczność w niektórych przepisach, umożliwiając sprzeczne interpretacje i niepewność prawną. Brakuje jasności w odniesieniu do odpowiedzialności i konkretnych kar, co utrudni ich praktyczne zastosowanie. Są nadal obawy dotyczące potencjalnego wykorzystania regulacji AI do celów kontroli państwowej. Ten aspekt rodzi pytania o ochronę wolności obywatelskich i granice interwencji państwa
Jesteśmy, w każdym razie, w obliczu ważnego kamienia milowego w regulacji AI. Ten komponent regulacyjny jest niezbędny do wprowadzenia równowagi między ochroną praw, wsparcie innowacji i promowanie integracji społecznej. Jednakże, skuteczność prawa będzie zależała od jego praktycznej realizacji oraz zdolności do łagodzenia związanych z tym ryzyk. Przejrzystość, jasność regulacyjna i stała kontrola ze strony społeczeństwa obywatelskiego będą niezbędne, aby zapewnić, że korzyści przewyższają wyzwania