Чињеница је: компаније у Бразилу су укључиле вештачку интелигенцију у своје пословне стратегије – најмање 98% њих, према истраживању спроведеном крајем 2024. године. Проблем је, међутим, што је само 25% организација изјавило да је спремно за имплементацију вештачке интелигенције. Остале пате од инфраструктурних ограничења, управљања подацима и недостатка специјализованих талената. Али то не значи да преосталих 75% чека идеалне услове за унапређење својих пројеката: напротив, ове компаније настављају да имплементирају технологију.
Проблем је што је само једна од пет компанија у стању да интегрише вештачку интелигенцију у своје пословање — према недавно објављеном глобалном извештају који је припремио Qlik у партнерству са ESG-ом. Штавише, само 47% компанија је пријавило имплементацију политика управљања подацима. Ове бројке су глобалне — и не би било изненађујуће да је бразилска статистика још већа. И иако се вештачка интелигенција тренутно примењује изоловано, а „улазна тачка“ технологије је обично корисничка служба, финансијски, регулаторни и репутациони ризици и даље постоје.
Компаније које се одлуче за имплементацију вештачке интелигенције без одговарајуће припреме суочавају се са многим препрекама. Студије случаја су показале да лоше управљани алгоритми могу да одржавају предрасуде или угрозе приватност, што резултира штетом по репутацију и финансије. Управљање вештачком интелигенцијом није само технолошко питање, већ и питање извршења и дужне пажње: без добро дефинисане стратегије, ризици расту у складу са могућностима – од кршења приватности и злоупотребе података до непрозирних или пристрасних аутоматизованих одлука које стварају неповерење.
Регулаторни притисак и усклађеност: Основе управљања вештачком интелигенцијом
Потреба за успостављањем управљања вештачком интелигенцијом није произашла само из пословне сфере: појављују се нови прописи, а напредак је брз, укључујући и у Бразилу.
У децембру 2024. године, Савезни сенат је одобрио закон 2338/2023 , којим се предлаже регулаторни оквир за вештачку интелигенцију са смерницама за одговорну употребу. Закон усваја приступ заснован на ризику , сличан оном у Европској унији, класификујући системе вештачке интелигенције према њиховом потенцијалу да угрозе основна права. Апликације које представљају прекомерни ризик, као што су аутономни алгоритми оружја или алати за масовни надзор, биће забрањене , генеративни и општенаменски системи морати да прођу претходне процене ризика пре него што доспеју на тржиште.
Постоје и захтеви за транспарентност, на пример, који захтевају од програмера да открију да ли су користили садржај заштићен ауторским правима приликом обучавања модела. Истовремено, воде се дискусије о додељивању Националне агенције за заштиту података (ANPD) централне улоге у координацији управљања вештачком интелигенцијом у земљи, користећи постојећи оквир за заштиту података. Ове законске иницијативе сигнализирају да ће компаније ускоро имати јасне обавезе у вези са развојем и употребом вештачке интелигенције – од пракси извештавања и ублажавања ризика до обрачуна алгоритамских утицаја.
У Сједињеним Државама и Европи, регулатори су појачали контролу алгоритама, посебно након популаризације генеративних алата вештачке интелигенције, што је изазвало јавну дебату. Закон о вештачкој интелигенцији (AI ACT) је већ ступио на снагу у ЕУ, а његова имплементација требало би да се заврши 2. августа 2026. године, када ће већина обавеза стандарда постати применљива, укључујући захтеве за системе вештачке интелигенције високог ризика и моделе вештачке интелигенције опште намене.
Транспарентност, етика и алгоритамска одговорност
Поред правног аспекта, управљање вештачком интелигенцијом обухвата етичке и одговорне принципе који превазилазе пуко „поштовање закона“. Компаније схватају да је, како би се стекло поверење купаца, инвеститора и друштва у целини, транспарентност о томе како се вештачка интелигенција користи неопходна. То подразумева усвајање низа интерних пракси, као што су претходна процена алгоритамског утицаја, ригорозно управљање квалитетом података и независна ревизија модела.
Такође је кључно имплементирати политике управљања подацима које пажљиво филтрирају и бирају податке за обуку, избегавајући дискриминаторне пристрасности које могу бити уграђене у прикупљене информације.
Када модел вештачке интелигенције почне да ради, компанија мора да спроводи периодична тестирања, валидације и ревизије својих алгоритама, документујући одлуке и коришћене критеријуме. Ова евиденција има две предности: помаже у објашњавању како систем функционише и омогућава одговорност у случају квара или неправилног исхода.
Управљање: иновација са конкурентном вредношћу
Уобичајена заблуда је да управљање вештачком интелигенцијом ограничава иновације. Напротив, добра стратегија управљања омогућава безбедне иновације, одговорно откључавајући пун потенцијал вештачке интелигенције. Компаније које рано структурирају своје оквире управљања могу ублажити ризике пре него што постану проблеми, избегавајући преправке или скандале који би одложили пројекте.
Као резултат тога, ове организације брже остварују већу вредност од својих иницијатива. Тржишни докази потврђују ову корелацију: глобално истраживање је показало да компаније са активним надзором руководства над управљањем вештачком интелигенцијом пријављују супериорне финансијске утицаје од употребе напредне вештачке интелигенције.
Штавише, налазимо се у времену када су потрошачи и инвеститори све више свесни етичке употребе технологије – а демонстрирање ове посвећености управљању може издвојити компанију од конкуренције.
У практичном смислу, организације са зрелим управљањем пријављују побољшања не само у безбедности већ и у ефикасности развоја – руководиоци указују на смањење времена циклуса пројекта вештачке интелигенције захваљујући јасним стандардима од самог почетка. То јест, када се захтеви за приватност, објашњивост и квалитет узму у обзир рано у фази дизајнирања, касније се избегавају скупе корекције.
Управљање, дакле, делује као водич за одрживе иновације, водећи где инвестирати и како одговорно скалирати решења. А усклађивањем иницијатива за вештачку интелигенцију са корпоративном стратегијом и вредностима компаније, управљање осигурава да иновације увек служе већим пословним и репутационим циљевима, уместо да следе изоловани или потенцијално штетни пут.
Развој стратегије управљања вештачком интелигенцијом је, пре свега, стратешки потез за конкурентско позиционирање. У данашњем екосистему, где су земље и компаније заробљене у технолошкој трци, они који иновирају са самопоуздањем и кредибилитетом предњаче. Велике компаније које успостављају ефикасне системе управљања могу да уравнотеже ублажавање ризика са максимизирањем користи од вештачке интелигенције, уместо да жртвују једно за друго.
Коначно, управљање вештачком интелигенцијом више није опционо, већ стратешки императив. За велике компаније, креирање стратегије управљања сада значи дефинисање стандарда, контрола и вредности које ће водити употребу вештачке интелигенције у наредним годинама. То укључује све, од усклађености са новим прописима до стварања интерних етичких и механизама транспарентности, са циљем минимизирања ризика и максимизирања вредности на уравнотежен начин. Они који делују брзо ће убрати плодове у доследним иновацијама и солидној репутацији, позиционирајући се испред на тржишту које је све више вођено вештачком интелигенцијом.