人工智能(AI)常被视为一种革命性技术,能够带来效率、精准度并开启新的战略机遇。 然而,随着企业从人工智能的优势中受益,也出现一个关键且有时被忽视的挑战:算法公平性。 这些系统中的偏见可能不仅会影响企业决策的效率,还会带来重大的法律、伦理和社会后果。
算法偏见的存在可以解释为人工智能本身的特性,尤其是在机器学习中。 模型是用历史数据进行训练的,当这些数据反映出偏见或社会偏差时,算法自然会延续这些偏见。 除了信息偏差外,算法本身也可能导致因素权重的不平衡,或者在用作代理的数据中出现偏差,也就是说,用来替代原始信息的数据,但并不适合该分析。
这种现象的典型例子是在面部识别的使用中,尤其是在公共安全等敏感场合。 多个巴西城市采用了自动化系统,旨在提高警察行动的效率,但分析显示这些算法经常犯下重大错误,尤其是在识别特定族裔群体的个体时,例如黑人。 麻省理工学院研究员乔伊·布拉姆威尼的研究表明,商业算法对黑人女性的错误率超过30%,而对白人男性的错误率则大幅下降至不到1%。
巴西立法:未来更加严格
在巴西,除了《通用数据保护法》(LGPD)外,人工智能法律框架(PL nº 2338/2023)也在审议中,该法案为该国人工智能的发展和应用制定了总体指导方针。
虽然尚未获得批准,但该法律草案已表明企业应尊重的权利,例如:提前知情权(在用户与人工智能系统互动时告知)、自动决策解释权、对算法决策提出异议的权利以及不因算法偏见而歧视的权利。
这些点将要求企业在生成式人工智能系统中实施透明度(例如,明确说明文本或回答是由机器生成的)以及审计机制,以解释模型是如何得出特定输出的。
算法治理:解决偏见的方案
对于企业来说,算法偏见不仅仅是伦理问题,还成为重要的战略问题。 偏见算法有可能扭曲招聘、信贷授予和市场分析等内部流程中的关键决策。 例如,一种对分支机构绩效进行分析的算法系统性地高估城市地区而低估边缘地区(由于数据不完整或偏见),可能导致投资方向错误。 因此,隐藏的偏见削弱了数据驱动策略的有效性,使得高管们基于部分错误的信息做出决策。
这些偏见可以被纠正,但将依赖于一种算法治理结构,重点在于所使用数据的多样性、流程的透明度以及在技术开发中纳入多元化和多学科的团队。 例如,在技术团队中投资多样性,企业能够更快地识别潜在的偏见来源,确保不同的观点被考虑,并提前发现问题。
此外,使用持续监测工具是至关重要的。 这些系统有助于实时检测算法偏差的漂移,便于快速调整并最大程度地减少负面影响。
透明度是减轻偏见的另一项关键实践。 算法不应作为黑箱运作,而应作为清晰且可解释的系统。 当企业选择透明时,赢得了客户、投资者和监管机构的信任。 透明度有助于外部审计,促进在人工智能管理中形成共同责任的文化。
其他举措包括采用负责人工智能治理的框架和认证。 这包括建立内部人工智能伦理委员会、制定企业使用政策,以及采纳国际标准。 例如,像ISO/IEC 42001(人工智能管理)、ISO/IEC 27001(信息安全)和ISO/IEC 27701(隐私)这样的框架,有助于在生成式人工智能使用的数据流程中建立控制措施。 另一个例子是由美国国家标准与技术研究院(NIST)制定的最佳实践指南,指导算法风险管理,包括偏见检测、数据质量检查和模型的持续监控。
专业咨询在这一背景下发挥着战略性作用。 凭借在负责任的人工智能、算法治理和合规监管方面的专业知识,这些公司不仅帮助组织规避风险,还将公平转化为竞争优势。 这些咨询公司的工作范围从详细的风险评估到内部政策的制定,再到关于人工智能伦理的企业培训,确保团队能够识别和减轻潜在的算法偏见。
因此,减轻算法偏见不仅仅是一种预防措施,而是一种战略性的方法。 关心算法公平性的公司表现出社会责任,增强声誉,并保护自己免受法律制裁和公众危机。 公平的算法倾向于提供更准确和均衡的见解,提升企业决策的有效性,并增强组织在市场中的竞争地位。
由SVX咨询公司首席执行官兼咨询主管Sylvio Sobreira Vieira提供