Den offentlige debatten om kunstig intelligens (KI) går ofte i ytterpunkter: eufori over full automatisering eller frykt for erstatning av fagfolk. Den reelle nøden ligger imidlertid i den menneskelige overvåkingen. AI-modeller basert på sannsynlighet har iboende feilmarginer, men brukes stadig mer i kritiske sammenhenger, fra finans til helse, uten tilstrekkelig kuratering. Denne praksisen er ikke bare risikabel, den er også teknisk feilaktig. Uten streng validering kan blind tillit til AI føre til alvorlige feil, med etiske, juridiske og operative konsekvenser. Den menneskelige overvåkningen er ikke et tilbehør: det er grunnlaget for en ansvarlig og bærekraftig bruk av teknologi.
Grensene for AI er tydelige i praktiske anvendelser. En studie fra Stanford University og GitHub Copilot (2023) viste at 45 % av koden generert av AI har sårbarheter eller bryter med gode utviklingspraksiser. Selv om AI ser ut til å fungere, vedvarer spørsmål: løsningen kan være usikker, den kan ikke oppfylle reguleringsstandarder, og den kan ikke være i samsvar med forretningsmålene. Uten grundige tester og kontinuerlige valideringer vil ethvert svar være ren gjetning.
Troen på AI's ufeilbarlighet er drevet av kommersielle diskurser og urealistiske forventninger, men ignorerer en grunnleggende sannhet: teknologien er avhengig av mennesker for å tolke, justere og korrigere sine resultater. I sektorer med regulering, som det juridiske, kan mangel på tilsyn krenke lover som den generelle databeskyttelsesloven (GDPR), som krever åpenhet i automatiserte beslutninger. Ifølge en rapport fra McKinsey (2023) ser det ut til at få selskaper er fullt forberedt på den utbredte bruken av GenAI, eller mer presist, på risikoene disse verktøyene kan medføre for virksomhetene. Bare 21 % av de intervjuede som rapporterte bruk av kunstig intelligens, sier at organisasjonene deres har retningslinjer som veileder bruken av disse verktøyene for teamene. Innenfor helsevesenet advarer Verdens helseorganisasjon (WHO, 2023) om at uovervåkede AI-systemer kan generere feilaktige retningslinjer, krenke personopplysninger og spre desinformasjon.
Tilsynsarbeidet står imidlertid overfor betydelige utfordringer.Troen på at kunstig intelligens er ufeilbarlig reflekterer en forvrengning drevet av både kommersielle diskurser og urealistiske forventninger, og mangel på fagfolk er også kritisk. I en fersk undersøkelse fra konsulentselskapet Bain & Company i Brasil nevnte 39 % av lederne mangelen på intern ekspertise som den viktigste hindringen for å fremskynde implementeringen av generativ AI, og overgikk til og med bekymringer om datasikkerhet.
Det handler ikke om å nekte fremskrittene innen teknologi, som er betydelige, men om å erkjenne at den fortsatt er avhengig av, og vil fortsette å være avhengig av, fagfolk som er i stand til å tolke, justere og, når det er nødvendig, korrigere dens resultater. Særlig i regulerte eller høyrisiko sektorer, som finans, jus eller helse, kan mangel på teknisk og etisk tilsyn føre til alvorlige juridiske og operasjonelle konsekvenser. Studien fra Brasscom viser denne mangel, Brasil produserer bare 53 000 IT-fag per år, mens etterspørselen mellom 2021 og 2025 vil kreve totalt 797 000 talenter.
Globale initiativer peker på veier mot forbedringer. FNs metodikk for etisk bruk av AI anbefaler menneskelig tilsyn gjennom hele livssyklusen til systemene, fra design til drift. Selskaper som Salesforce illustrerer dette i praksis: deres Einstein-plattform bruker etiske komiteer for å revidere algoritmer. Denne tilnærmingen viser at tilsyn ikke bare er teknisk, men også strategisk, og krever åpenhet, ansvarlighet og investering i kompetanseutvikling.
AI har kraft til å transformere industrier, men uten menneskelig overvåkning blir potensialet overskygget av etiske, juridiske og operasjonelle risikoer. Saker som finansielle svindel og potensielle medisinske feil viser at blind tillit til teknologi er uholdbar, mens et eksempel som Salesforce beviser at robust styring kan maksimere fordeler og minimere feil. I 2025 bør debatten om kunstig intelligens prioritere tilsyn som en grunnpilar for ansvarlig innovasjon, og møte utfordringer som kostnader, talentmangel og kulturell motstand. Ledere, bedrifter og reguleringsmyndigheter har ansvar for å bygge systemer som kombinerer kraften i AI med menneskelig følsomhet, og sikrer at teknologien fremmer fremgang, ikke problemer. Fremtiden for AI ligger ikke i blind automatisering, men i intelligent samarbeid, og det er opp til oss å forme den med klarhet, etikk og forpliktelse.