事實是:根據2024年底的研究,巴西至少有98%的企業已將人工智慧納入其商業策略。然而,問題在於,只有25%的企業宣稱已準備好實施人工智慧。其餘企業則面臨基礎建設限制、資料管理和專業人才短缺等困境。但這並不意味著剩下的75%的企業正在等待理想的條件來推進其專案:相反,這些企業正在持續實施這項技術。
問題在於,根據 Qlik 與 ESG 合作發布的最新全球報告,只有五分之一的公司能夠將人工智慧融入其業務。此外,只有 47% 的公司報告已實施資料治理政策。這些數字是全球性的——巴西的統計數據如果更高也不足為奇。儘管人工智慧目前仍處於孤立應用階段,且該技術的「切入點」通常是客戶服務,但財務、監管和聲譽風險仍然存在。
那些選擇在未做好充分準備的情況下實施人工智慧的公司將面臨許多障礙。案例研究表明,管理不善的演算法可能會加劇偏見或損害隱私,從而造成聲譽和財務損失。人工智慧治理不僅僅是一個技術問題,也是一個執行和盡職調查的問題:如果沒有明確的策略,風險會與機會同步增長——從隱私洩露和資料濫用,到不透明或帶有偏見的自動化決策,最終導致信任危機。
監理壓力與合規:人工智慧治理的基礎
建立人工智慧治理的需求不僅僅來自商業方面:新的法規正在湧現,並且進展迅速,包括巴西。
2024年12月,聯邦參議院批准了第2338/2023號法案,該法案提出了人工智慧監管框架,並制定了負責任使用指南。該法案採用類似於歐盟的基於風險的方法,根據人工智慧系統損害基本權利的可能性對其進行分類。諸如自主武器演算法或大規模監視工具等風險過高的應用將被禁止,而生成型和通用型人工智慧系統則必須在進入市場前進行風險評估。
此外,還提出了透明度要求,例如要求開發人員揭露在訓練模型時是否使用了受版權保護的內容。同時,目前正在討論賦予國家資料保護局(ANPD)在協調國家人工智慧治理方面的核心作用,並利用現有的資料保護框架。這些立法舉措表明,企業很快將對人工智慧的開發和使用承擔明確的義務——從報告實踐和降低風險到考慮演算法的影響。
在美國和歐洲,監管機構加強了對演算法的審查,尤其是在生成式人工智慧工具普及並引發公眾熱議之後。 《人工智慧法案》(AI ACT)已在歐盟生效,其實施計畫於2026年8月2日結束,屆時該標準的大部分義務將適用,包括對高風險人工智慧系統和通用人工智慧模型的要求。
透明度、道德和演算法問責制
除了法律層面,人工智慧治理還涵蓋道德和責任原則,而不僅僅是「遵守法律」。企業逐漸意識到,為了贏得客戶、投資者甚至整個社會的信任,人工智慧使用方式的透明度至關重要。這需要一系列內部實踐,例如事先評估演算法的影響、嚴格的資料品質管理和獨立的模型審計。
實施數據治理政策也至關重要,要仔細篩選和選擇訓練數據,避免收集到的資訊中可能存在的歧視性偏見。
一旦人工智慧模型投入運行,公司必須定期對其演算法進行測試、驗證和審計,並記錄所使用的決策和標準。這種記錄有兩個好處:它有助於解釋系統的工作原理,並在出現故障或不當結果時追究責任。
治理:具有競爭價值的創新
一個常見的誤解是,人工智慧治理會限制創新。恰恰相反,良好的治理策略能夠保障創新安全,以負責任的方式釋放人工智慧的全部潛力。儘早建構治理框架的公司能夠在風險演變成問題之前就規避風險,避免返工或醜聞導致專案延誤。
因此,這些組織能夠更快地從其計劃中獲得更大的價值。市場證據進一步證實了這種關聯:一項全球調查發現,擁有積極的領導層監督AI治理的公司報告稱,使用先進的AI技術能夠帶來更顯著的財務效益。
此外,我們正處於消費者和投資者越來越意識到技術道德使用的時代——展示這種對治理的承諾可以使公司在競爭中脫穎而出。
從實際角度來看,擁有成熟治理的組織不僅報告了安全性的提升,也報告了開發效率的提升——高管們指出,由於從一開始就制定了明確的標準,AI專案週期得以縮短。也就是說,如果在設計階段早期就考慮到隱私、可解釋性和品質要求,就能避免後期成本高昂的修改。
因此,治理應作為永續創新的指南,指導投資方向以及如何負責任地擴展解決方案。透過將人工智慧計畫與公司的企業策略和價值觀相結合,治理可確保創新始終服務於更大的業務和聲譽目標,而不是走上一條孤立或可能有害的道路。
制定人工智慧治理策略,首先是提升競爭優勢的策略舉措。在當今的生態系統中,各國和各企業都陷入了技術競賽,那些充滿信心和信譽的創新者才能引領潮流。建立高效治理體系的大公司能夠在降低風險和最大化人工智慧效益之間取得平衡,而不是為了犧牲一方而犧牲另一方。
最後,人工智慧治理不再是可有可無的,而是策略要務。對大型企業而言,制定治理策略如今意味著定義未來幾年人工智慧應用的標準、控制措施和價值觀。這涵蓋方方面面,從遵守新興法規到建立內部道德和透明度機制,旨在平衡地降低風險並最大化價值。那些迅速採取行動的企業將獲得持續創新和良好聲譽的回報,並在日益受人工智慧驅動的市場中佔據領先地位。