Tas ir fakts: Brazīlijas uzņēmumi ir iekļāvuši mākslīgo intelektu savās biznesa stratēģijās — vismaz 98% no tiem, liecina 2024. gada beigās veiktā pētījuma dati. Tomēr problēma ir tā, ka tikai 25% organizāciju ir paziņojušas par gatavību ieviest mākslīgo intelektu. Pārējās cieš no infrastruktūras ierobežojumiem, datu pārvaldības un specializētu talantu trūkuma. Taču tas nenozīmē, ka atlikušie 75% gaida ideālus apstākļus savu projektu virzībai: gluži pretēji, šie uzņēmumi turpina ieviest šo tehnoloģiju.
Problēma ir tā, ka tikai viens no pieciem uzņēmumiem spēj integrēt mākslīgo intelektu savā uzņēmējdarbībā — teikts nesen publicētā globālā ziņojumā, ko Qlik sagatavojis sadarbībā ar ESG. Turklāt tikai 47% uzņēmumu ziņoja par datu pārvaldības politikas ieviešanu. Šie skaitļi ir globāli, un nebūtu pārsteigums, ja Brazīlijas statistika būtu vēl augstāka. Un, lai gan mākslīgais intelekts pašlaik tiek piemērots atsevišķi un tehnoloģijas "ieejas punkts" parasti ir klientu apkalpošana, joprojām pastāv finanšu, regulatīvie un reputācijas riski.
Uzņēmumi, kas izvēlas ieviest mākslīgo intelektu (MI) bez pienācīgas sagatavošanās, saskaras ar daudziem šķēršļiem. Gadījumu izpēte ir parādījusi, ka slikti pārvaldīti algoritmi var veicināt aizspriedumus vai apdraudēt privātumu, radot reputācijas un finansiālus zaudējumus. MI pārvaldība nav tikai tehnoloģisks jautājums, bet arī izpildes un pienācīgas rūpības jautājums: bez precīzi definētas stratēģijas riski pieaug līdz ar iespējām — sākot no privātuma pārkāpumiem un datu ļaunprātīgas izmantošanas līdz necaurspīdīgiem vai neobjektīviem automatizētiem lēmumiem, kas rada neuzticēšanos.
Regulējošais spiediens un atbilstība: mākslīgā intelekta pārvaldības pamati
Nepieciešamība izveidot mākslīgā intelekta pārvaldību neradās tikai no uzņēmējdarbības frontes: rodas jauni noteikumi, un progress ir bijis straujš, tostarp Brazīlijā.
2024. gada decembrī Federālais Senāts apstiprināja likumprojektu Nr. 2338/2023 , kas ierosina mākslīgā intelekta (MI) tiesisko regulējumu ar atbildīgas lietošanas vadlīnijām. Likumprojektā ir izmantota uz risku balstīta pieeja , kas ir līdzīga Eiropas Savienības pieejai, klasificējot MI sistēmas atbilstoši to potenciālajam kaitējumam pamattiesībām. Lietojumprogrammas, kas rada pārmērīgu risku, piemēram, autonomo ieroču algoritmi vai masveida novērošanas rīki, tiks aizliegtas , ģeneratīvām un vispārējas nozīmes MI sistēmām pirms nonākšanas tirgū būs jāveic iepriekšējs riska novērtējums.
Pastāv arī pārredzamības prasības, piemēram, kas paredz, ka izstrādātājiem ir jāatklāj, vai modeļu apmācībā viņi ir izmantojuši autortiesībām pakļautu saturu. Vienlaikus notiek diskusijas par to, lai Valsts datu aizsardzības iestādei (ANPD) piešķirtu centrālu lomu mākslīgā intelekta pārvaldības koordinēšanā valstī, izmantojot esošo datu aizsardzības regulējumu. Šīs likumdošanas iniciatīvas signalizē, ka uzņēmumiem drīz būs skaidri pienākumi attiecībā uz mākslīgā intelekta izstrādi un izmantošanu — sākot ar ziņošanas praksi un risku mazināšanu līdz algoritmiskās ietekmes uzskaitei.
Amerikas Savienotajās Valstīs un Eiropā regulatori ir pastiprinājuši algoritmu pārbaudi, īpaši pēc ģeneratīvo mākslīgā intelekta rīku popularizēšanas, kas izraisīja publiskas debates. Mākslīgā intelekta likums (AI ACT) jau ir stājies spēkā ES, un tā ieviešanas beigas ir paredzētas 2026. gada 2. augustā, kad stāsies spēkā lielākā daļa standarta saistību, tostarp prasības augsta riska mākslīgā intelekta sistēmām un vispārējas nozīmes mākslīgā intelekta modeļiem.
Caurspīdīgums, ētika un algoritmiskā atbildība
Papildus juridiskajam aspektam mākslīgā intelekta pārvaldība ietver ētikas un atbildības principus, kas sniedzas tālāk par vienkāršu "likumdošanas ievērošanu". Uzņēmumi apzinās, ka, lai iegūtu klientu, investoru un visas sabiedrības uzticību, ir būtiska pārredzamība par to, kā tiek izmantots mākslīgais intelekts. Tas ietver vairāku iekšējo prakšu ieviešanu, piemēram, iepriekšēju algoritmiskās ietekmes novērtējumu, stingru datu kvalitātes pārvaldību un neatkarīgu modeļu auditu.
Ir arī ļoti svarīgi ieviest datu pārvaldības politikas, kas rūpīgi filtrē un atlasa apmācības datus, izvairoties no diskriminējošiem aizspriedumiem, kas var būt iestrādāti apkopotajā informācijā.
Kad mākslīgā intelekta modelis ir sācis darboties, uzņēmumam ir jāveic periodiska savu algoritmu testēšana, validācija un auditi, dokumentējot izmantotos lēmumus un kritērijus. Šim ierakstam ir divas priekšrocības: tas palīdz izskaidrot sistēmas darbību un nodrošina atbildību kļūmes vai nepareiza rezultāta gadījumā.
Pārvaldība: inovācija ar konkurētspējīgu vērtību
Izplatīts nepareizs uzskats ir tāds, ka mākslīgā intelekta pārvaldība ierobežo inovācijas. Gluži pretēji, laba pārvaldības stratēģija nodrošina drošu inovāciju, atbildīgi atraisot mākslīgā intelekta pilno potenciālu. Uzņēmumi, kas laikus strukturē savas pārvaldības sistēmas, var mazināt riskus, pirms tie kļūst par problēmām, izvairoties no pārstrādāšanas vai skandāliem, kas aizkavētu projektus.
Rezultātā šīs organizācijas ātrāk gūst lielāku vērtību no savām iniciatīvām. Tirgus dati apstiprina šo korelāciju: globālā aptauja atklāja, ka uzņēmumi ar aktīvu vadības uzraudzību pār mākslīgā intelekta pārvaldību ziņo par izcilu finansiālo ietekmi no progresīva mākslīgā intelekta izmantošanas.
Turklāt mēs dzīvojam laikā, kad patērētāji un investori arvien vairāk apzinās tehnoloģiju ētisku izmantošanu, un šīs apņemšanās pārvaldībai demonstrēšana var atšķirt uzņēmumu no konkurentiem.
Praktiski organizācijas ar nobriedušu pārvaldību ziņo par uzlabojumiem ne tikai drošības, bet arī izstrādes efektivitātes jomā — vadītāji norāda uz mākslīgā intelekta projektu cikla laika samazināšanos, pateicoties skaidriem standartiem jau no paša sākuma. Tas ir, ja privātuma, izskaidrojamības un kvalitātes prasības tiek ņemtas vērā jau agrīnā projektēšanas posmā, vēlāk tiek novērstas dārgas korekcijas.
Tādējādi pārvaldība kalpo kā ilgtspējīgas inovācijas ceļvedis, norādot, kur investēt un kā atbildīgi mērogot risinājumus. Un, saskaņojot mākslīgā intelekta iniciatīvas ar uzņēmuma korporatīvo stratēģiju un vērtībām, pārvaldība nodrošina, ka inovācija vienmēr kalpo plašākiem biznesa un reputācijas mērķiem, nevis iet pa izolētu vai potenciāli kaitīgu ceļu.
Mākslīgā intelekta pārvaldības stratēģijas izstrāde, pirmkārt, ir stratēģisks solis konkurētspējīgas pozīcijas iegūšanai. Mūsdienu ekosistēmā, kur valstis un uzņēmumi ir iesaistīti tehnoloģiskajā sacensībā, tie, kas ievieš inovācijas ar pārliecību un ticamību, ir līderi. Lieli uzņēmumi, kas izveido efektīvas pārvaldības sistēmas, spēj līdzsvarot risku mazināšanu ar mākslīgā intelekta sniegto ieguvumu maksimizēšanu, nevis upurēt vienu otra labā.
Visbeidzot, mākslīgā intelekta pārvaldība vairs nav izvēles iespēja, bet gan stratēģiska nepieciešamība. Lieliem uzņēmumiem pārvaldības stratēģijas izveide tagad nozīmē standartu, kontroles mehānismu un vērtību noteikšanu, kas vadīs mākslīgā intelekta izmantošanu turpmākajos gados. Tas ietver visu, sākot no atbilstības jaunajiem noteikumiem līdz iekšējo ētikas un pārredzamības mehānismu izveidei, kuru mērķis ir līdzsvaroti samazināt risku un palielināt vērtību. Tie, kas rīkojas ātri, gūs labumu no pastāvīgām inovācijām un stabilas reputācijas, pozicionējot sevi arvien vairāk mākslīgā intelekta vadītā tirgū.