Den offentliga debatten om artificiell intelligens (AI) förlorar sig ofta i ytterligheter: eufori över total automation eller rädsla för att ersätta yrkesverksamma. Den verkliga brådskan ligger dock i den mänskliga övervakningen. AI-modeller, baserade på sannolikheter, har inneboende felmarginaler, men används alltmer i kritiska sammanhang, från ekonomi till hälsa, utan tillräcklig kurering. Denna praxis är inte bara riskabel, den är också tekniskt felaktig. Utan noggrann validering kan blind tillit till AI leda till allvarliga fel, med etiska, juridiska och operativa konsekvenser. Mänsklig övervakning är inte ett tillbehör: det är grunden för en ansvarsfull och hållbar användning av teknologin.
Gränserna för AI är tydliga i praktiska tillämpningar. En studie från Stanford University och GitHub Copilot (2023) visade att 45 % av koden som genereras av AI har sårbarheter eller bryter mot goda utvecklingspraxis. Även när AI verkar fungera kvarstår frågor: lösningen kanske inte är säker, kanske inte uppfyller regleringsnormer och kanske inte är i linje med affärsmålen. Utan stränga tester och kontinuerlig validering är varje svar bara en gissning.
Förtroendet för AI:s ofelbarhet drivs av kommersiella diskurser och orealistiska förväntningar, men ignorerar en grundläggande sanning: teknologin är beroende av människor för att tolka, justera och korrigera dess resultat. In reglerade sektorer, som juridik, kan bristen på övervakning bryta mot lagar som den allmänna dataskyddslagen (LGPD), som kräver transparens i automatiserade beslut. Enligt en rapport från McKinsey (2023) verkar få företag vara helt förberedda för den allmänna användningen av GenAI, eller mer exakt, för de risker som dessa verktyg kan innebära för verksamheten. Endast 21 % av de tillfrågade som rapporterade att de använder artificiell intelligens uppger att deras organisationer har riktlinjer som styr användningen av dessa verktyg av teamen. Inom hälsovården varnar Världshälsoorganisationen (WHO, 2023) för att AI-system utan mänsklig övervakning kan generera felaktiga riktlinjer, bryta mot personuppgifter och sprida desinformation.
Övervakningen står dock inför betydande utmaningar.Föreställningen att artificiell intelligens är ofelbar speglar en förvrängning som drivs av både kommersiella diskurser och orealistiska förväntningar, och bristen på kompetenta yrkesverksamma är också kritisk. Enligt en färsk undersökning från konsultfirman Bain & Company i Brasilien nämnde 39 % av cheferna avsaknaden av intern expertis som det största hindret för att påskynda implementeringen av generativ AI, vilket till och med överträffar oro för dataskydd.
Det handlar inte om att förneka teknikens framsteg, som är betydande, utan att erkänna att den fortfarande är beroende av, och kommer att fortsätta vara beroende av, yrkespersoner som kan tolka, justera och vid behov korrigera dess resultat. Särskilt inom reglerade eller högpåverkansområden, som finans, juridik eller hälsa, kan bristen på teknisk och etisk övervakning leda till allvarliga juridiska och operativa konsekvenser. Studien av Brasscom visar denna brist, Brasilien utbildar endast 53 000 IT-proffs per år, medan efterfrågan mellan 2021 och 2025 kommer att kräva totalt 797 000 talanger.
Globala initiativ pekar ut vägar för förbättringar. FN:s metod för etisk användning av AI rekommenderar mänsklig övervakning under hela systemets livscykel, från design till drift. Företag som Salesforce illustrerar detta i praktiken: deras plattform Einstein använder etikkommittéer för att granska algoritmer. Denna metod visar att övervakning inte bara är teknisk utan också strategisk, vilket kräver transparens, ansvar och investering i kompetensutveckling.
AI har kraften att förändra industrier, men utan mänsklig övervakning skymmas dess potential av etiska, juridiska och operativa risker. Fall som finansiella bedrägerier och möjliga medicinska misstag visar att blind tillit till teknologin är ohållbar, medan exempel som Salesforce visar att robust styrning kan maximera fördelar och minimera fel. År 2025 bör debatten om AI prioritera övervakning som en grund för ansvarsfull innovation, och ta itu med utmaningar som kostnader, talangbrist och kulturellt motstånd. Ledare, företag och reglerare har ansvar för att bygga system som kombinerar AI:s kraft med mänsklig känslighet, och säkerställer att teknologin förstärker framsteg, inte problem. Framtiden för AI ligger inte i blind automation, utan i intelligent samarbete, och det är upp till oss att forma den med tydlighet, etik och engagemang.