Tekoäly (AI) nähdään usein vallankumouksellisena teknologiana, joka voi tarjota tehokkuutta, tarkkuutta ja avata uusia strategisia mahdollisuuksia. Kuitenkin, kun yritykset hyötyvät tekoälyn eduista, nousee myös kriittinen ja joskus laiminlyöty haaste: algoritminen oikeudenmukaisuus. Näkyvät piilomaiset tekijät näissä järjestelmissä voivat vaarantaa paitsi liiketoimintapäätösten tehokkuuden myös aiheuttaa merkittäviä oikeudellisia, eettisiä ja yhteiskunnallisia seurauksia.
Algoritmisten puolueellisuuksien läsnäolo voi johtua tekoälyn itsensä luonteesta, erityisesti koneoppimisessa. Mallit koulutetaan historiallisilla tiedoilla, ja kun nämä tiedot heijastavat ennakkoluuloja tai yhteiskunnallisia vääristymiä, algoritmit luonnollisesti jatkavat näitä vinoumia. Tietojen vinoumien lisäksi itse algoritmi voi aiheuttaa epätasapainoa painotuksessa tai käytetyissä välivälineaineistoissa, eli tiedoissa, jotka korvaavat alkuperäiset tiedot, mutta eivät ole ihanteellisia kyseiseen analyysiin.
Esimerkki tästä ilmiöstä löytyy kasvojentunnistuksen käytöstä, erityisesti arkaluontoisissa yhteyksissä kuten julkisessa turvallisuudessa. Useita brasilialaisia kaupunkeja on ottanut käyttöön automatisoituja järjestelmiä tehostaakseen poliisitoimia, mutta analyysit osoittavat, että nämä algoritmit tekevät usein merkittäviä virheitä, erityisesti tunnistaessaan tiettyjen etnisten ryhmien, kuten mustien ihmisten, yksilöitä. MIT:n tutkija Joy Buolamwinin tutkimukset osoittavat, että kaupalliset algoritmit sisältävät yli 30 % virheprosentin mustille naisille, kun taas valkoisilla miehillä virheprosentti laskee dramaattisesti alle 1 %:iin.
Brasilian lainsäädäntö: tiukempaa tulevaisuudessa
Brasiliassa lisäksi yleinen tietosuojalaki (LGPD) on myös vireillä tekoälyn oikeudellinen kehys (PL nº 2338/2023), joka asettaa yleisiä ohjeita tekoälyn kehittämiselle ja soveltamiselle maassa.
Vaikka sitä ei ole vielä hyväksytty, tämä lakialoite viestii jo oikeuksista, joita yritysten on noudatettava, kuten: oikeus ennakkotietoon (ilmoittaa, kun käyttäjä on vuorovaikutuksessa tekoälyjärjestelmän kanssa), oikeus automatisoitujen päätösten selittämiseen, oikeus kyseenalaistaa algoritmisia päätöksiä ja oikeus olla syrjitty algoritmisten vinoumien vuoksi.
Nämä kohdat edellyttävät, että yritykset toteuttavat läpinäkyvyyttä generatiivisten tekoälyjärjestelmien (esim. selventämällä, milloin teksti tai vastaus on koneen tuottama) ja auditointimekanismeja selittääkseen, miten malli on saavuttanut tietyn tuloksen.
Algoritminen hallinta: ratkaisu vinoumien korjaamiseen
Yrityksille algoritmivääristymät ovat enemmän kuin eettisiä kysymyksiä, ne muuttuvat merkittäviksi strategisiksi ongelmiksi. Biasoidut algoritmit voivat vääristää keskeisiä päätöksiä sisäisissä prosesseissa kuten rekrytoinnissa, luotonannossa ja markkina-analyysissä. Esimerkiksi haarautumisanalyysialgoritmi, joka yliarvioi järjestelmällisesti kaupunkialueita periferia-alueisiin verrattuna (johtuen puutteellisista tiedoista tai ennakkoluuloista), voi johtaa väärin kohdennettuun sijoitukseen. Näin piilotetut vinoumat heikentävät data-pohjaisten strategioiden tehokkuutta, mikä johtaa johtajien tekemisiin osittain väärien tietojen perusteella.
Näitä vinoumia voidaan korjata, mutta se edellyttää algoritmista hallintorakennetta, joka keskittyy käytettyjen tietojen monimuotoisuuteen, prosessien läpinäkyvyyteen ja monimuotoisten ja monitieteisten tiimien osallistamiseen teknologian kehittämisessä. Kun sijoitetaan monimuotoisuuteen teknisissä tiimeissä, yritykset pystyvät tunnistamaan nopeammin mahdollisia puolueellisuuden lähteitä, varmistamaan, että erilaisia näkökulmia otetaan huomioon ja että virheitä havaitaan ajoissa.
Lisäksi jatkuvan seurannan työkalujen käyttö on olennaista. Nämä järjestelmät auttavat havaitsemaan algoritmisten vinoumien poikkeamia reaaliajassa, mahdollistavat nopeita säätöjä ja minimoivat haitalliset vaikutukset.
Läpinäkyvyys on toinen olennainen käytäntö vinoumien lieventämisessä. Algoritmit eivät saisi toimia kuin mustina laatikoina, vaan selkeinä ja selitettävissä järjestelminä. Kun yritykset valitsevat läpinäkyvyyden, ne saavat asiakkaiden, sijoittajien ja sääntelijöiden luottamuksen. Läpinäkyvyys helpottaa ulkoisia tarkastuksia, edistäen yhteisvastuullisen tekoälyn hallinnan kulttuuria.
Outras iniciativas incluem a adesão a frameworks e certificações para governança de IA responsável. Tämä sisältää sisäisten tekoälyetiikkakomiteiden perustamisen, yrityspolitiikkojen määrittämisen niiden käytölle ja kansainvälisten standardien omaksumisen. Esimerkiksi kehykset kuten ISO/IEC 42001 (tekoälyn hallinta), ISO/IEC 27001 (tietoturva) ja ISO/IEC 27701 (tietosuoja) auttavat jäsentämään valvontaa generatiivisen tekoälyn käyttämissä tietoprosesseissa. Toinen esimerkki on Yhdysvaltain National Institute of Standards and Technology (NIST) -instituutin suositeltujen käytäntöjen joukko, joka ohjaa algoritmisen riskin hallintaa, sisältäen puolueellisuuden havaitsemisen, tietojen laadun tarkistukset ja mallien jatkuvan seurannan.
Erikoistuneet konsultoinnit näyttelevät strategista roolia tässä tilanteessa. Vastuullisen tekoälyn, algoritmisen hallinnon ja sääntelyvaatimusten noudattamisen asiantuntemuksella nämä yritykset auttavat organisaatioita paitsi välttämään riskejä, myös muuttamaan oikeudenmukaisuuden kilpailueduksi. Näiden konsultointien toiminta kattaa yksityiskohtaiset riskinarvioinnit ja sisäisten politiikkojen kehittämisen, sisältäen yrityskoulutuksia tekoälyn eettisyydestä, varmistaen että tiimit ovat valmiita tunnistamaan ja lieventämään mahdollisia algoritmiseen ennakkoluuloihin liittyviä riskejä.
Näin ollen algoritmisten puolueellisuuksien lieventäminen ei ole vain ennaltaehkäisevä toimenpide, vaan strateginen lähestymistapa. Yritykset, jotka välittävät algoritmisen oikeudenmukaisuuden edistämisestä, osoittavat yhteiskuntavastuuta, vahvistavat mainettaan ja suojelevat itseään oikeudellisilta seuraamuksilta ja julkisilta kriiseiltä. Neutraalit algoritmit tarjoavat yleensä tarkempia ja tasapainoisempia näkemyksiä, lisäten liiketoimintapäätösten tehokkuutta ja vahvistaen organisaatioiden kilpailuasemaa markkinoilla.
Sylvio Sobreira Vieira, SVX Konsultoin toimitusjohtaja ja johtava konsultti