关于人工智能(AI)的公共辩论常常陷入两个极端:对全面自动化的狂热或对专业人士被取代的恐惧。 真正的紧急情况在于人为的监督。 基于概率的人工智能模型具有固有的误差范围,但在金融、医疗等关键领域的应用日益增加,缺乏适当的审查。 这种做法不仅冒险,而且在技术上是错误的。 没有严格验证的情况下,对人工智能的盲目信任可能导致严重的失败,带来伦理、法律和操作方面的影响。 人工监督不是一种配件:它是负责任和可持续使用技术的基础。
人工智能的局限性在实际应用中显而易见。 斯坦福大学和GitHub Copilot(2023年)的一项研究显示,45%的由人工智能生成的代码存在漏洞或违反最佳开发实践。 即使人工智能似乎正常运作,问题仍然存在:解决方案可能不安全,可能不符合监管规范,可能与业务目标不一致。 没有严格的测试和持续的验证,任何回答都只是猜测。
对人工智能绝对可靠性的信仰被商业宣传和不切实际的期望所推动,但忽视了一个基本事实:技术依赖于人类来解释、调整和纠正其输出。 在受监管的行业,如法律行业,缺乏监管可能违反《通用数据保护法》(LGPD),该法要求在自动化决策中保持透明。 根据麦肯锡(2023年)的第二份报告,似乎只有少数企业完全准备好广泛使用生成式人工智能,或者更准确地说,准备应对这些工具可能给业务带来的风险。 只有21%的受访者表示他们的组织有指导方针指导团队使用这些工具。 在健康领域,世界卫生组织(WHO,2023)警告,无人类监督的人工智能系统可能会产生错误的指导、侵犯个人数据以及传播虚假信息。
然而,监督面临着重大挑战。认为人工智能是万无一失的信念反映了一种扭曲,这种扭曲既受到商业话语的影响,也源于不切实际的期望,而专业人员的短缺也同样关键,根据贝恩公司在巴西的最新研究,39%的高管将缺乏内部专业知识视为加快生成式人工智能实施的主要障碍,甚至超过了对数据安全的担忧。
这并不是否认技术的进步,这些进步是实质性的,而是要认识到它仍然依赖,并将继续依赖于能够解释、调整以及在必要时纠正其输出的专业人员。 特别是在受监管或高影响力的行业,如金融、法律或医疗,缺乏技术和伦理监督可能会带来严重的法律和运营后果。 Brasscom的研究显示这种短缺,巴西每年仅培养53万名IT专业人员,而在2021年至2025年间,需求总共需要79.7万名人才。
全球倡议为改善指明方向 联合国关于人工智能伦理使用的方法建议在系统的整个生命周期中进行人工监督,从设计到运营。 像Salesforce这样的公司在实践中说明了这一点:他们的Einstein平台使用伦理委员会来审查算法。 这种方法表明,监督不仅仅是技术层面的问题,还具有战略意义,要求透明度、责任感和能力建设的投入。
人工智能具有改变行业的能力,但没有人类监督,其潜力将被伦理、法律和操作风险所掩盖。 诸如金融欺诈和可能的医疗错误等案例表明,盲目信任技术是不可持续的,而像Salesforce这样的例子证明了强有力的治理可以最大化利益并最小化失误。 到2025年,关于人工智能的讨论应将监管作为负责任创新的支柱,应对成本、人才短缺和文化阻力等挑战。 领导者、企业和监管机构有责任建立将人工智能的力量与人类敏感性相结合的系统,确保技术促进进步,而非加剧问题。 人工智能的未来不在于盲目的自动化,而在于智能合作,而我们有责任以清晰、伦理和承诺来塑造它。