Det er et faktum: selskaper i Brasil har integrert kunstig intelligens i forretningsstrategiene sine – minst 98 % av dem, ifølge forskning utført ved utgangen av 2024. Problemet er imidlertid at bare 25 % av organisasjonene erklærte seg forberedt på å implementere AI. Resten lider av infrastrukturbegrensninger, datahåndtering og mangel på spesialisert talent. Men dette betyr ikke at de resterende 75 % venter på ideelle forhold for å fremme prosjektene sine: tvert imot fortsetter disse selskapene å implementere teknologien.
Problemet er at bare én av fem selskaper klarer å integrere AI i virksomheten sin – ifølge en nylig utgitt global rapport utarbeidet av Qlik i samarbeid med ESG. Videre rapporterte bare 47 % av selskapene at de implementerte retningslinjer for datastyring. Disse tallene er globale – og det ville ikke være overraskende om den brasilianske statistikken var enda høyere. Og selv om AI for tiden brukes i siloer, og teknologiens «inngangspunkt» vanligvis er kundeservice, eksisterer det fortsatt økonomiske, regulatoriske og omdømmemessige risikoer.
Bedrifter som velger å implementere AI uten skikkelig forberedelse møter mange hindringer. Casestudier har vist at dårlig administrerte algoritmer kan opprettholde skjevheter eller kompromittere personvernet, noe som resulterer i omdømme- og økonomisk skade. Styring av AI er ikke bare et teknologisk spørsmål, men også et spørsmål om utførelse og due diligence: uten en veldefinert strategi vokser risikoen i takt med mulighetene – fra brudd på personvernet og misbruk av data til ugjennomsiktige eller partiske automatiserte beslutninger som skaper mistillit.
Reguleringspress og samsvar: Grunnlaget for AI-styring
Behovet for å etablere AI-styring oppsto ikke bare fra næringslivet: nye forskrifter dukker opp, og fremgangen har vært rask, også i Brasil.
I desember 2024 godkjente det føderale senatet lovforslag 2338/2023 , som foreslår et regelverk for AI med retningslinjer for ansvarlig bruk. Lovforslaget benytter en risikobasert tilnærming , lik den i EU, der AI-systemer klassifiseres etter potensialet deres til å skade grunnleggende rettigheter. Applikasjoner som utgjør en overdreven risiko, som algoritmer for autonome våpen eller masseovervåkingsverktøy, vil bli forbudt , generative og generelle AI- systemer vil bli pålagt å gjennomgå forhåndsrisikovurderinger før de når markedet.
Det finnes også krav til åpenhet, for eksempel at utviklere må opplyse om hvorvidt de brukte opphavsrettsbeskyttet innhold da de trente modeller. Samtidig er det diskusjoner om å tildele den nasjonale databeskyttelsesmyndigheten (ANPD) en sentral rolle i å koordinere styringen av kunstig intelligens i landet, og utnytte det eksisterende rammeverket for databeskyttelse. Disse lovgivningsinitiativene signaliserer at selskaper snart vil ha klare forpliktelser angående utvikling og bruk av kunstig intelligens – fra rapporteringspraksis og risikoredusering til å ta hensyn til algoritmiske påvirkninger.
I USA og Europa har regulatorer økt granskingen av algoritmer, spesielt etter populariseringen av generative AI-verktøy, noe som utløste offentlig debatt. AI ACT har allerede trådt i kraft i EU, og implementeringen skal etter planen avsluttes 2. august 2026, når de fleste av standardens forpliktelser trer i kraft, inkludert krav til høyrisiko-AI-systemer og generelle AI-modeller.
Åpenhet, etikk og algoritmisk ansvarlighet
Utover det juridiske aspektet omfatter KI-styring etiske og ansvarsprinsipper som går utover bare «overholdelse av loven». Bedrifter innser at åpenhet om hvordan KI brukes er avgjørende for å vinne tilliten til kunder, investorer og samfunnet som helhet. Dette innebærer å ta i bruk en rekke interne praksiser, som forhåndsvurdering av algoritmisk innvirkning, streng datakvalitetsstyring og uavhengig modellrevisjon.
Det er også avgjørende å implementere retningslinjer for datastyring som nøye filtrerer og velger ut treningsdata, og unngår diskriminerende skjevheter som kan være innebygd i den innsamlede informasjonen.
Når en AI-modell er i drift, må selskapet gjennomføre periodisk testing, validering og revisjon av algoritmene sine, og dokumentere beslutninger og kriterier som brukes. Denne registreringen har to fordeler: den bidrar til å forklare hvordan systemet fungerer og muliggjør ansvarlighet i tilfelle feil eller upassende utfall.
Styring: innovasjon med konkurransedyktig verdi
En vanlig misforståelse er at styring av kunstig intelligens begrenser innovasjon. Tvert imot muliggjør en god styringsstrategi sikker innovasjon, og frigjør kunstig intelligens sitt fulle potensial på en ansvarlig måte. Selskaper som strukturerer sine styringsrammeverk tidlig, kan redusere risikoer før de blir problemer, og dermed unngå omarbeid eller skandaler som kan forsinke prosjekter.
Som et resultat høster disse organisasjonene raskere større verdi fra initiativene sine. Markedsresultater forsterker denne sammenhengen: en global undersøkelse fant at selskaper med aktiv ledelsestilsyn med AI-styring rapporterer overlegen økonomisk effekt av bruk av avansert AI.
Videre er vi i en tid der forbrukere og investorer i økende grad er bevisste på etisk bruk av teknologi – og det å demonstrere denne forpliktelsen til styring kan differensiere et selskap fra konkurrentene.
I praksis rapporterer organisasjoner med moden styring forbedringer ikke bare i sikkerhet, men også i utviklingseffektivitet – ledere peker på reduksjoner i AI-prosjektsyklustid takket være tydelige standarder fra starten av. Det vil si at når personvern, forklaringsevne og kvalitetskrav vurderes tidlig i designfasen, unngås kostbare korrigeringer senere.
Styring fungerer dermed som en veiledning for bærekraftig innovasjon, og veileder hvor man skal investere og hvordan man skalerer løsninger på en ansvarlig måte. Og ved å samkjøre AI-initiativer med selskapets strategi og verdier, sikrer styring at innovasjon alltid tjener de større forretnings- og omdømmemålene, i stedet for å følge en isolert eller potensielt skadelig vei.
Å utvikle en strategi for styring av kunstig intelligens er fremfor alt et strategisk trekk for konkurransedyktig posisjonering. I dagens økosystem, hvor land og selskaper er låst fast i et teknologisk kappløp, leder de som innoverer med selvtillit og troverdighet an. Store selskaper som etablerer effektive styringssystemer, er i stand til å balansere risikoredusering med å maksimere fordelene med kunstig intelligens, i stedet for å ofre det ene for det andre.
Til slutt er ikke lenger AI-styring valgfritt, men et strategisk imperativ. For store selskaper betyr det å lage en styringsstrategi nå å definere standarder, kontroller og verdier som vil veilede bruken av kunstig intelligens i årene som kommer. Dette innebærer alt fra å overholde nye forskrifter til å lage interne etikk- og åpenhetsmekanismer, med sikte på å minimere risiko og maksimere verdi på en balansert måte. De som handler raskt, vil høste fruktene i form av konsekvent innovasjon og et solid omdømme, og posisjonere seg i forkant i et stadig mer AI-drevet marked.