Kunstig intelligens (KI) blir ofte sett på som en revolusjonerende teknologi, i stand til å gi effektivitet, presisjon og åpne nye strategiske muligheter. Imidlertid, mens selskaper drar nytte av fordelene med AI, oppstår også en kritisk og noen ganger oversett utfordring: algoritmisk rettferdighet. Skjulte skjevheter i disse systemene kan ikke bare kompromittere effektiviteten av forretningsbeslutninger, men også føre til betydelige juridiske, etiske og sosiale konsekvenser.
Tilstedeværelsen av algoritmiske skjevheter kan forklares av selve IA-ens natur, spesielt innen maskinlæring. Modeller er trent med historiske data, og når disse dataene reflekterer fordommer eller sosiale skjevheter, ender algoritmene naturlig nok opp med å forsterke disse skjevhetene. I tillegg til skjevhetene i informasjonen kan selve algoritmen føre til en ubalanse i vektingen av faktorer, eller i dataene som brukes som proxy, det vil si data som erstatter de opprinnelige opplysningene, men som ikke er ideelle for den aktuelle analysen.
Et et emblemisk eksempel på dette fenomenet finnes i bruken av ansiktsgjenkjenning, spesielt i sensitive sammenhenger som offentlig sikkerhet. Ulike brasilianske byer har tatt i bruk automatiserte systemer for å øke effektiviteten av politiets innsats, men analyser viser at disse algoritmene ofte gjør betydelige feil, spesielt når det gjelder å identifisere personer fra spesifikke etniske grupper, som svarte mennesker. Studier av forskeren Joy Buolamwini ved MIT viste at kommersielle algoritmer har feilrater over 30 % for svarte kvinner, mens for hvite menn faller feilraten drastisk til under 1 %.
Brasiliansk lovgivning: mer strenghet i fremtiden
I Brasil, i tillegg til den generelle databeskyttelsesloven (LGPD), er også den juridiske rammen for kunstig intelligens (PL nr. 2338/2023) under behandling, som fastsetter generelle retningslinjer for utvikling og bruk av AI i landet.
Selv om det ennå ikke er godkjent, signaliserer dette lovforslaget allerede rettigheter som selskaper skal respektere, som: retten til forhåndsinformasjon (informere når brukeren interagerer med et AI-system), retten til forklaring av automatiserte beslutninger, retten til å protestere mot algoritmiske beslutninger og retten til ikke-diskriminering på grunn av algoritmiske skjevheter.
Disse punktene vil kreve at selskaper implementerer åpenhet i generative AI-systemer (for eksempel å tydeliggjøre når en tekst eller et svar er generert av maskin) og revisjonsmekanismer for å forklare hvordan modellen kom frem til en bestemt utgang.
Algoritmisk styring: løsningen på skjevheter
For bedrifter går algoritmiske skjevheter utover den etiske sfæren og blir viktige strategiske problemer. Biasete algoritmer har potensial til å forvrenge viktige beslutninger i interne prosesser som rekruttering, kredittvurdering og markedsanalyse. For eksempel kan en algoritme for filialytelsesanalyse som systematisk overvurderer urbane områder på bekostning av perifere områder (på grunn av ufullstendige data eller skjevheter) føre til feilaktige investeringer. På denne måten undergraver skjulte skjevheter effektiviteten av datadrevne strategier, noe som får ledere til å ta beslutninger basert på delvis feilaktig informasjon.
Disse skjevhetene kan rettes opp, men vil avhenge av en algoritmisk styringsstruktur med fokus på mangfoldet i dataene som brukes, åpenhet i prosessene og inkludering av mangfoldige og tverrfaglige team i teknologisk utvikling. Ved å investere i mangfold i de tekniske teamene, kan selskaper for eksempel raskere identifisere potensielle kilder til skjevhet, sikre at ulike perspektiver blir vurdert og at feil oppdages tidlig.
I tillegg er bruk av kontinuerlige overvåkingsverktøy avgjørende. Disse systemene hjelper med å oppdage algoritmiske skjevheter i sanntid, noe som muliggjør raske justeringer og minimerer negativ innvirkning.
Åpenhet er en annen viktig praksis i mitigeringen av skjevheter. Algoritmer skal ikke fungere som svarte bokser, men som klare og forklarbare systemer. Når selskaper velger å være åpne, vinner de tillit fra kunder, investorer og reguleringsmyndigheter. Åpenhet gjør eksterne revisjoner enklere, og fremmer en kultur for delt ansvar i AI-styring.
Andre initiativer inkluderer tilslutning til rammeverk og sertifiseringer for ansvarlig AI-styring. Dette inkluderer å opprette interne etikk-komiteer for AI, å fastsette bedriftsretningslinjer for bruken, og å adoptere internasjonale standarder. For eksempel hjelper rammeverk som: ISO/IEC 42001 (kunstig intelligensstyring), ISO/IEC 27001 (informasjonssikkerhet) og ISO/IEC 27701 (personvern) med å strukturere kontroller i dataprocessene som brukes av generativ AI. Et annet eksempel er settet med anbefalte praksiser fra NIST (National Institute of Standards and Technology) i USA som veileder risikostyring av algoritmer, inkludert oppdagelse av skjevhet, datakvalitetskontroller og kontinuerlig overvåking av modeller.
Spesialiserte konsulenttjenester spiller en strategisk rolle i dette scenariet. Med ekspertise innen ansvarlig kunstig intelligens, algoritmegodkjenning og regulatorisk samsvar, hjelper disse selskapene organisasjoner ikke bare med å unngå risiko, men også med å gjøre rettferdighet til en konkurransefordel. Virksomheten til disse konsulentfirmaene spenner fra detaljerte risikovurderinger til utvikling av interne retningslinjer, inkludert bedriftsopplæring om etikk i kunstig intelligens, for å sikre at team er forberedt på å identifisere og mitigere potensielle algoritmiske skjevheter.
På denne måten er mitigering av algoritmiske skjevheter ikke bare en forebyggende tiltak, men en strategisk tilnærming. Bedrifter som bryr seg om algoritmisk rettferdighet viser samfunnsansvar, styrker sitt omdømme og beskytter seg mot juridiske sanksjoner og offentlige kriser. Upartiske algoritmer har en tendens til å gi mer nøyaktige og balanserte innsikter, noe som øker effektiviteten av forretningsbeslutninger og styrker organisasjoners konkurranseposisjon i markedet.
Av Sylvio Sobreira Vieira, administrerende direktør og leder for konsulenttjenester hos SVX Consultoria