Het openbare debat over kunstmatige intelligentie (AI) gaat vaak verloren in extremen: de euforie over volledige automatisering of de angst voor het vervangen van professionals. De ware urgentie ligt echter bij menselijke supervisie. AI-modellen, gebaseerd op waarschijnlijkheden, hebben inherente foutmarges, maar worden steeds vaker gebruikt in kritieke contexten, van financiën tot gezondheidszorg, zonder de juiste curatie. Deze praktijk is niet alleen riskant, maar ook technisch onjuist. Zonder strikte validatie kan blind vertrouwen in AI leiden tot ernstige fouten, met ethische, juridische en operationele gevolgen. Het menselijk toezicht is geen accessoire: het is de basis voor een verantwoord en duurzaam gebruik van technologie.
De grenzen van AI zijn duidelijk in praktische toepassingen. Een studie van Stanford University en GitHub Copilot (2023) onthulde dat 45% van de door AI gegenereerde code kwetsbaarheden bevat of niet voldoet aan goede ontwikkelpraktijken. Zelfs wanneer AI lijkt te werken, blijven vragen bestaan: de oplossing is mogelijk niet veilig, voldoet mogelijk niet aan regelgeving en sluit mogelijk niet aan bij de bedrijfsdoelstellingen. Zonder strenge tests en voortdurende validaties is elke reactie slechts een veronderstelling.
Het geloof in de onfeilbaarheid van AI wordt gevoed door commerciële discoursen en onrealistische verwachtingen, maar negeert een fundamentele waarheid: technologie is afhankelijk van mensen om de uitkomsten te interpreteren, aan te passen en te corrigeren. In gereguleerde sectoren, zoals de juridische sector, kan het ontbreken van toezicht in strijd zijn met wetten zoals de Algemene Verordening Gegevensbescherming (AVG), die transparantie vereist bij geautomatiseerde beslissingen. Volgens het rapport van McKinsey (2023) lijken maar weinig bedrijven volledig voorbereid op het algemeen gebruik van GenAI, of, preciezer gezegd, op de risico's die deze tools voor het bedrijfsleven kunnen meebrengen. Slechts 21% van de ondervraagden die de adoptie van kunstmatige intelligentie rapporteerden, stellen dat hun organisaties richtlijnen hebben die het gebruik van deze tools door de teams begeleiden. In de gezondheidszorg waarschuwt de Wereldgezondheidsorganisatie (WHO, 2023) dat ongesuperviseerde AI-systemen onjuiste richtlijnen kunnen geven, schending van persoonlijke gegevens en desinformatie kunnen verspreiden.
Het toezicht ondervindt echter aanzienlijke uitdagingen.De overtuiging dat kunstmatige intelligentie onfeilbaar is, weerspiegelt een vertekening die wordt gevoed door zowel commerciële discoursen als onrealistische verwachtingen, en het tekort aan professionals is ook kritiek. Volgens recent onderzoek van het adviesbureau Bain & Company in Brazilië noemde 39% van de leidinggevenden het ontbreken van interne expertise als de belangrijkste belemmering voor het versnellen van de implementatie van generatieve AI, zelfs boven zorgen over gegevensbeveiliging.
Het gaat niet om het ontkennen van de vooruitgang van de technologie, die aanzienlijk zijn, maar om het erkennen dat ze nog steeds afhankelijk is van professionals die in staat zijn om de output te interpreteren, aan te passen en, indien nodig, te corrigeren. Vooral in gereguleerde of hoog-risicosectoren, zoals de financiële, juridische of gezondheidssector, kan het ontbreken van technische en ethische supervisie ernstige juridische en operationele gevolgen hebben. De studie van Brasscom benadrukt dit tekort, Brazilië vormt slechts 53 duizend IT-professionals per jaar, terwijl tussen 2021 en 2025 een totaal van 797 duizend talenten nodig zal zijn.
Globale initiatieven wijzen wegen naar verbeteringen. De methode van de VN voor ethisch gebruik van AI beveelt menselijke supervisie aan gedurende de hele levenscyclus van systemen, van ontwerp tot werking. Bedrijven zoals Salesforce illustreren dit in de praktijk: hun platform Einstein gebruikt ethische commissies om algoritmen te auditen. Deze aanpak toont aan dat toezicht niet alleen technisch is, maar ook strategisch, en transparantie, verantwoordelijkheid en investeringen in opleiding vereist.
AI heeft de kracht om industrieën te transformeren, maar zonder menselijke supervisie wordt haar potentieel overschaduwd door ethische, juridische en operationele risico's. Casos como fraudes financeiras e possíveis erros médicos tonen aan dat blind vertrouwen in technologie onhoudbaar is, terwijl een voorbeeld zoals Salesforce bewijst dat robuust bestuur de voordelen kan maximaliseren en fouten kan minimaliseren. In 2025 moet het debat over AI prioriteit geven aan toezicht als pijler van verantwoordelijke innovatie, waarbij uitdagingen zoals kosten, talenttekort en culturele weerstand worden aangepakt. Leiders, bedrijven en regelgevers hebben de verantwoordelijkheid om systemen te bouwen die de kracht van AI combineren met menselijke gevoeligheid, zodat de technologie de vooruitgang versterkt en niet de problemen. De toekomst van AI ligt niet in blinde automatisering, maar in intelligente samenwerking, en het is aan ons om deze vorm te geven met duidelijkheid, ethiek en toewijding.