星六期,2026年2月7日

2025年参与业务,请参阅4个实时营销策略

下半场敲门,不乏品牌投资数字营销、付费媒体和尖端自动化。.
星六期,2026年2月7日
首页文章AI的真正争论:人的监督是不可或缺的

AI的真正争论:人的监督是不可或缺的

能(AI)的公开辩论往往会迷失在极端:完全自动化的欣快感或害怕取代专业人士,然而真正的紧迫性在于人的监督,AI模型基于概率,具有固有的误差幅度,但越来越多地用于关键环境,从金融到健康,没有适当的管理这种做法不仅有风险,而且在技术上是错误的,如果没有严格的验证,对AI的盲目信任可能会导致严重的失败,具有道德,法律和运营的影响,人的监督不是一个附属品:它是负责任和可持续地使用技术的基础。.

AI的极限在实际应用中显而易见,斯坦福大学和GitHub Copilot(2023)的一项研究显示,45%的AI生成代码存在漏洞或违反良好的开发实践,即使AI似乎起作用,问题仍然存在:解决方案可能不安全,可能不符合监管标准,可能与业务目标不一致,如果没有严格的测试和持续验证,任何答案都将仅仅是猜测。.

AI无误性的信念是由商业话语和不切实际的期望所推动的,但却忽略了一个基本的事实:技术依赖于人类来解释、调整和纠正其输出。在受监管的部门,例如法律部门,缺乏监管可能会违反《通用数据保护法》(LGPD)等法律,该法要求自动化决策的透明度。根据麦肯锡(2023)的说法,似乎很少有公司为GenAI的广泛使用做好充分准备,或者更准确地说,为这些工具可能给商业带来的风险。只有21%的受访者报告采用人工智能来传播有错误信息的医疗保健使用指南,指导他们的组织。.

人工智能是无误的信念反映了商业话语和不切实际的期望所助长的扭曲,专业人员的短缺也至关重要,在巴西贝恩公司咨询公司最近的一项调查中,39%的高管将缺乏内部专业知识作为加速生成式AI实施的主要障碍,甚至克服了对数据安全的担忧。. 

这不是否认技术进步的问题,技术进步是实质性的,而是认识到技术进步仍然取决于并将继续取决于能够解释、调整并在必要时纠正其产出的专业人员。特别是在金融、法律或健康等受监管或高影响力的领域,缺乏技术和道德监督可能会产生严重的、法律和运营后果。黄铜研究证明了这种短缺,巴西每年仅形成 5.3 万名 IT 专业人员,而 2021 年至 2025 年间的需求将需要总共 79.7 万名人才。.

全球倡议指出了改进的方法 联合国人工智能道德使用方法建议对从设计到运营的整个系统生命周期进行人为监督。像 Salesforce 这样的公司在实践中说明了这一点:他们的爱因斯坦平台使用道德委员会来审计算法。这种方法表明,监督不仅是技术性的,而且是战略性的,需要透明度、问责制和能力建设投资。.

AI有能力改造行业,但如果没有人为监督,其潜力就会被道德、法律和运营风险所掩盖。财务欺诈和可能的医疗错误等案例表明,对技术的盲目信任是不可持续的,而Salesforce证明,健全的治理可以最大限度地提高效益,最大限度地减少失败。到2025年,AI辩论应优先考虑将监管作为负责任创新的支柱,面临成本、人才短缺和文化阻力等挑战。领导者、公司和监管机构有责任构建将AI的力量与人类敏感性相结合的系统,确保技术放大进步,而不是问题。.

马塞洛·马尔基
马塞洛·马尔基
Marcelo Marchi 在技术行业拥有 20 多年的经验,是 Vericode 的投资者、技术顾问、首席执行官兼创始合伙人,Vericode 是一家专门从事 DevSecOps、连续测试和可观察性的公司。.
相关事宜

留下答案

请输入您的评论!
请在此处输入您的姓名

最近

最受欢迎

最近

最受欢迎