人工智慧 (AI) 通常被視為一項革命性的技術,能夠提供高效、精準的決策,並開啟新的策略機會。然而,隨著企業受益於 AI 的優勢,一個關鍵且經常被忽視的挑戰也隨之出現:演算法公平性。這些系統中隱藏的偏見不僅會損害商業決策的效率,還會造成嚴重的法律、倫理和社會後果。
演算法偏見的存在可以用人工智慧本身的性質來解釋,尤其是在機器學習領域。模型是用歷史資料訓練的,當這些資料反映出偏見或社會偏見時,演算法自然會將這些偏見延續下去。除了資訊中的偏見之外,演算法本身也可能導致所執行因素的權重不平衡,或導致用作代理的數據不平衡——也就是說,這些數據雖然可以替代原始信息,但對於分析而言並非理想數據。
這種現象的典型例子是臉部辨識的使用,尤其是在公共安全等敏感環境下。巴西一些城市已經採用了自動化系統來提高警務行動的效率,但分析表明,這些演算法經常會出現嚴重的錯誤,尤其是在識別特定族裔(例如黑人)時。麻省理工學院研究員喬伊·布拉姆維尼(Joy Buolamwini)的研究表明,商業演算法對黑人女性的錯誤率超過30%,而對白人男性的錯誤率則急劇下降至1%以下。
巴西立法:未來將更加嚴格
在巴西,除了《一般資料保護法》(LGPD)外,《人工智慧法律架構》(法案編號2338/2023)也在推進中,該法案為該國人工智慧的發展和應用制定了通用指南。
雖然尚未獲得批准,但該法案已經概述了企業必須尊重的權利,例如:事先知情權(在用戶與人工智慧系統互動時告知用戶)、對自動化決策的解釋權、挑戰演算法決策的權利、以及因演算法偏見而不受歧視的權利。
這些要點將要求公司在生成人工智慧系統中實現透明度(例如,明確說明文字或回應何時由機器生成)和審計機制來解釋模型如何得出給定的輸出。
演算法治理:偏見的解決方案
對企業而言,演算法偏見已超越倫理範疇,成為重大的策略議題。偏見演算法可能會扭曲招聘、授信和市場分析等內部流程中的關鍵決策。例如,一個分支機構的績效分析演算法系統性地高估城市地區,而忽略了周邊地區(由於數據不完整或存在偏見),可能會導致投資方向錯誤。因此,隱性偏見會削弱數據驅動策略的有效性,導致高階主管基於部分錯誤的資訊做出決策。
這些偏見是可以糾正的,但這取決於演算法治理結構,該結構著重於所用數據的多樣性、流程的透明度,以及多元化和多學科團隊在技術開發中的融入。例如,透過投資技術團隊的多樣性,公司可以更快地識別潛在的偏見來源,確保考慮到不同的觀點,並及早發現缺陷。
此外,使用持續監測工具至關重要。這些系統有助於即時檢測演算法偏差,從而快速調整並最大限度地減少負面影響。
透明度是減少偏見的另一項重要實踐。演算法不應充當黑盒子,而應成為清晰可解釋的系統。當公司選擇透明度時,他們就能贏得客戶、投資人和監管機構的信任。透明度有利於外部審計,鼓勵在人工智慧管理中形成一種共同責任的文化。
其他措施包括遵守負責任的人工智慧治理框架和認證。這包括成立內部人工智慧倫理委員會、制定公司使用政策以及採用國際標準。例如,ISO/IEC 42001(人工智慧管理)、ISO/IEC 27001(資訊安全)和 ISO/IEC 27701(隱私權)等框架有助於建構生成式人工智慧資料處理中的控制機制。另一個例子是美國國家標準與技術研究院 (NIST) 推薦的一系列實踐,用於指導演算法風險管理,涵蓋偏差檢測、資料品質檢查和持續模型監控。
專業諮詢公司在此場景中發揮策略性作用。憑藉在負責任的人工智慧、演算法治理和法規合規方面的專業知識,這些公司不僅幫助組織規避風險,還將權益轉化為競爭優勢。這些顧問公司的工作範圍廣泛,從詳細的風險評估到內部政策的製定,再到企業人工智慧倫理培訓,確保團隊做好準備,識別並減輕潛在的演算法偏差。
因此,減輕演算法偏見不僅是一項預防措施,更是一項策略方針。注重演算法公平性的公司能夠展現社會責任感,提升聲譽,並保護自身免受法律制裁和公共危機的影響。無偏見的演算法往往能夠提供更準確、更平衡的洞察,從而提高商業決策的有效性,並增強企業在市場上的競爭地位。
作者:Sylvio Sobreira Vieira,SVX Consultoria 執行長兼諮詢主管