Det er en kendsgerning: virksomheder i Brasilien har indarbejdet kunstig intelligens i deres forretningsstrategier – mindst 98 % af dem, ifølge en undersøgelse foretaget i slutningen af 2024. Problemet er imidlertid, at kun 25 % af organisationerne erklærede sig parate til at implementere kunstig intelligens. Resten lider af infrastrukturbegrænsninger, datahåndtering og mangel på specialiseret talent. Men det betyder ikke, at de resterende 75 % venter på ideelle betingelser for at fremme deres projekter: tværtimod fortsætter disse virksomheder med at implementere teknologien.
Problemet er, at kun én ud af fem virksomheder er i stand til at integrere AI i deres forretning – ifølge en nyligt udgivet global rapport udarbejdet af Qlik i samarbejde med ESG. Desuden rapporterede kun 47 % af virksomhederne, at de implementerede data governance-politikker. Disse tal er globale – og det ville ikke være overraskende, hvis de brasilianske statistikker var endnu højere. Og selvom AI i øjeblikket anvendes i siloer, og teknologiens "indgangspunkt" normalt er kundeservice, eksisterer der stadig finansielle, regulatoriske og omdømmemæssige risici.
Virksomheder, der vælger at implementere AI uden ordentlig forberedelse, står over for mange forhindringer. Casestudier har vist, at dårligt administrerede algoritmer kan forstærke bias eller kompromittere privatlivets fred, hvilket resulterer i omdømme- og økonomisk skade. AI-styring er ikke kun et teknologisk spørgsmål, men også et spørgsmål om udførelse og due diligence: uden en veldefineret strategi vokser risiciene i takt med mulighederne – fra brud på privatlivets fred og misbrug af data til uigennemsigtige eller forudindtagede automatiserede beslutninger, der skaber mistillid.
Reguleringspres og compliance: Grundlaget for AI-styring
Behovet for at etablere AI-styring opstod ikke kun fra forretningssiden: nye regler er på vej, og fremskridtene har været hurtige, også i Brasilien.
I december 2024 godkendte det føderale senat lovforslag 2338/2023 , der foreslår en lovgivningsmæssig ramme for kunstig intelligens med retningslinjer for ansvarlig brug. Lovforslaget anvender en risikobaseret tilgang , der ligner den i Den Europæiske Union, og klassificerer kunstig intelligens-systemer efter deres potentiale til at skade grundlæggende rettigheder. Applikationer, der udgør en overdreven risiko, såsom autonome våbenalgoritmer eller masseovervågningsværktøjer, vil blive forbudt , generative og generelle kunstig intelligens- systemer skal gennemgå forudgående risikovurderinger, før de når markedet.
Der er også krav om gennemsigtighed, for eksempel at udviklere skal oplyse, om de har brugt ophavsretligt beskyttet indhold, når de træner modeller. Samtidig er der diskussioner om at tildele den nationale databeskyttelsesmyndighed (ANPD) en central rolle i koordineringen af AI-styring i landet og dermed udnytte den eksisterende databeskyttelsesramme. Disse lovgivningsinitiativer signalerer, at virksomheder snart vil have klare forpligtelser vedrørende udvikling og brug af AI – lige fra rapporteringspraksis og risikoreduktion til redegørelse for algoritmiske påvirkninger.
I USA og Europa har regulatorer øget kontrollen med algoritmer, især efter populariseringen af generative AI-værktøjer, hvilket har udløst offentlig debat. AI ACT er allerede trådt i kraft i EU, og implementeringen af den er planlagt til at slutte den 2. august 2026, hvor de fleste af standardens forpligtelser træder i kraft, herunder krav til højrisiko-AI-systemer og generelle AI-modeller.
Gennemsigtighed, etik og algoritmisk ansvarlighed
Ud over det juridiske aspekt omfatter AI-styring etiske principper og ansvarlighedsprincipper, der går ud over blot "overholdelse af loven". Virksomheder er ved at indse, at det er afgørende at have gennemsigtighed om, hvordan AI bruges, for at vinde kundernes, investorernes og samfundets tillid som helhed. Dette indebærer at indføre en række interne praksisser, såsom forudgående vurdering af algoritmisk indvirkning, streng datakvalitetsstyring og uafhængig modelrevision.
Det er også afgørende at implementere datastyringspolitikker, der omhyggeligt filtrerer og udvælger træningsdata og undgår diskriminerende bias, der kan være indlejret i de indsamlede oplysninger.
Når en AI-model er operationel, skal virksomheden udføre periodisk testning, validering og revision af sine algoritmer og dokumentere de anvendte beslutninger og kriterier. Denne registrering har to fordele: den hjælper med at forklare, hvordan systemet fungerer, og muliggør ansvarlighed i tilfælde af fejl eller ukorrekt udfald.
Ledelse: innovation med konkurrencedygtig værdi
En almindelig misforståelse er, at AI-styring begrænser innovation. Tværtimod muliggør en god styringsstrategi sikker innovation og frigør AI's fulde potentiale på en ansvarlig måde. Virksomheder, der strukturerer deres styringsrammer tidligt, kan afbøde risici, før de bliver problemer, og dermed undgå omarbejde eller skandaler, der kan forsinke projekter.
Som følge heraf høster disse organisationer hurtigere større værdi af deres initiativer. Markedsresultater styrker denne sammenhæng: en global undersøgelse viste, at virksomheder med aktiv ledelseskontrol med AI-styring rapporterer bedre økonomiske effekter af brugen af avanceret AI.
Derudover lever vi i en tid, hvor forbrugere og investorer i stigende grad er bevidste om den etiske brug af teknologi – og at demonstrere denne forpligtelse til god selskabsledelse kan differentiere en virksomhed fra konkurrenterne.
I praksis rapporterer organisationer med moden governance forbedringer ikke kun i sikkerhed, men også i udviklingseffektivitet – ledere peger på reduktioner i AI-projektcyklustiden takket være klare standarder fra starten. Det vil sige, at når privatliv, forklarlighed og kvalitetskrav tages i betragtning tidligt i designfasen, undgås dyre korrektioner senere.
Governance fungerer således som en guide til bæredygtig innovation og vejleder i, hvor man skal investere, og hvordan man skalerer løsninger ansvarligt. Og ved at afstemme AI-initiativer med virksomhedens strategi og værdier sikrer governance, at innovation altid tjener de overordnede forretnings- og omdømmemål i stedet for at følge en isoleret eller potentielt skadelig vej.
Udvikling af en AI-styringsstrategi er frem for alt et strategisk træk for konkurrencedygtig positionering. I dagens økosystem, hvor lande og virksomheder er fanget i et teknologisk kapløb, fører de, der innoverer med selvtillid og troværdighed, an. Store virksomheder, der etablerer effektive styringssystemer, er i stand til at balancere risikoreduktion med at maksimere AI's fordele i stedet for at ofre det ene for det andet.
Endelig er AI-styring ikke længere valgfri, men et strategisk imperativ. For store virksomheder betyder det at skabe en styringsstrategi nu at definere de standarder, kontroller og værdier, der vil styre brugen af kunstig intelligens i de kommende år. Dette involverer alt fra at overholde nye regler til at skabe interne etiske og gennemsigtighedsmekanismer med det formål at minimere risiko og maksimere værdi på en afbalanceret måde. De, der handler hurtigt, vil høste frugterne i form af konsekvent innovation og et solidt omdømme og positionere sig foran i et stadig mere AI-drevet marked.