Die Nasionale Data Beskermingsowerheid (ANPD) van Brasilië het onlangs 'n beroep van Meta, die maatskappy wat Facebook besit, geweier wat probeer het om data van Brasiliaanse gebruikers te gebruik om hul Kunsmatige Intelligensie (KI) te train. Hierdie besluit beklemtoon beduidende kommernisse oor etiek en veiligheid in die gebruik van data vir die ontwikkeling van KI.
Marcell Rosa, Algemene Bestuurder en Vice-President van Verkope in Latyns-Amerika by Clevertap, waarsku oor die risiko's verbonde aan die gebruik van data wat van platforms versamel is waar misinligting en persoonlike aanvalle algemeen is. "Wanneer KI leer uit bevooroordeelde en dikwels skadelike inligting, is die risiko dat hierdie masjiene nie net reproduseer nie, maar ook negatiewe en verwronge gedrag versterk," sê Rosa.
Die probleem kry bekommernissewekkende afmetings wanneer ons die Brasiliëse verkiesingskonteks in ag neem. During die 2022-verkiesing het die Hooggeregshof vir Verkiesings (TSE) gerapporteer dat meer as 500 daaglikse waarskuwings oor valse nuus net in die tweede ronde ontvang is.
Die hoofkwessie is dat KI, getoets met menings van gewone mense wat dikwels deur misinligting beïnvloed word, negatiewe patrone kan kopieer en versterk. "AI neiging om menslike gedrag na te boots, en wanneer hierdie gedrag gekenmerk word deur polarisasie en gebrek aan burgerlikheid, weerspieël die tegnologie onvermijdelik hierdie foute," verduidelik Rosa.
Die beslissing van die ANPD word gesien as 'n belangrike stap om die verantwoordelike en etiese gebruik van data in AI-opleiding te verseker. "Die privaatheid van gebruikers en die integriteit van inligting is essensieel vir die ontwikkeling van tegnologieë wat werklik die samelewing bevoordeel," sluit Rosa af.
Hierdie saak beklemtoon die dringende behoefte aan 'n meer kritiese en gereguleerde benadering tot die versameling en gebruik van data deur digitale platforms, met die doel om die integriteit van inligting te beskerm en te verseker dat KI-ontwikkeling op betroubare en respekvolle data gebaseer is.