首頁文章關於人工智慧的真正爭論:人類監督是不可或缺的

關於人工智慧的真正爭論:人類監督是不可或缺的

關於人工智慧 (AI) 的公開辯論常常陷入極端:對完全自動化的欣喜或害怕更換專業人員。然而,真正的緊迫性在於人類監督。基於機率的人工智慧模型具有固有的誤差範圍,但越來越多地用於從金融到健康的關鍵環境,而沒有適當的管理。這種做法不僅有風險,而且在技術上也是錯誤的。如果沒有嚴格的驗證,對人工智慧的盲目信任可能會導致嚴重的失敗,從而產生道德、法律和營運影響。人類監督不是一個附屬品:它是負責任和永續使用技術的基礎。.

人工智慧的限制在實際應用中很明顯。史丹佛大學和 GitHub Copilot (2023) 的一項研究表明,45% 人工智慧生成的程式碼存在漏洞或違反了良好的開發實踐。即使人工智慧看起來有效,問題仍然存在:解決方案可能不安全,可能不符合監管標準,並且可能與業務目標不一致。如果沒有嚴格的測試和持續的驗證,任何答案都只是猜測。.

商業話語和不切實際的期望助長了對人工智慧無誤的信念,但卻忽略了一個基本事實:技術依賴人類來解釋、調整和糾正其輸出。在受監管的行業,例如法律行業,缺乏監管可能會違反《一般資料保護法》(LGPD) 等法律,該法要求自動決策的透明度。根據麥肯錫(2023)的數據,似乎很少有公司為 GenAI 的廣泛使用做好充分準備,或者更準確地說,為這些工具可能給企業帶來的風險做好充分準備。只有 21% 的受訪者報告採用人工智慧來傳播含有錯誤訊息的醫療保健使用指南,指導其組織。.

人們相信人工智慧是無誤的,這反映了商業話語和不切實際的期望所助長的扭曲,而專業人員的短缺也至關重要,巴西顧問公司貝恩公司最近的一項調查顯示,39%的高階主管將缺乏內部專業知識視為加速實施生成式人工智慧的主要障礙,甚至克服了對資料安全的擔憂。. 

這不是否認技術進步的問題,技術進步是實質的,而是認識到技術進步仍然依賴並將繼續依賴有能力解釋、調整並在必要時糾正其產出的專業人員。特別是在金融、法律或衛生等受監管或高影響力的領域,缺乏技術和道德監督可能會產生嚴重的法律和營運後果。 Brass研究證明,巴西每年僅培養5.3萬名IT專業人員,而2021年至2025年間的需求將總共需要79.7萬人才。.

全球倡議指出了改進的方法 聯合國人工智慧道德使用方法建議從設計到營運的整個系統生命週期進行人類監督。像 Salesforce 這樣的公司在實踐中說明了這一點:他們的愛因斯坦平台使用道德委員會來審核演算法。這種方法表明,監督不僅是技術性的,而且是策略性的,需要透明度、問責制和能力建設投資。.

人工智慧有能力改變產業,但如果沒有人類監督,其潛力就會被道德、法律和營運風險所掩蓋。金融詐欺和可能的醫療錯誤等案例表明,對技術的盲目信任是不可持續的,而 Salesforce 等案例證明,穩健的治理可以實現利益最大化、失敗最小化。到 2025 年,人工智慧辯論應優先考慮將監管作為負責任創新的支柱,面臨成本、人才短缺和文化阻力等挑戰。領導者、公司和監管機構有責任建立將人工智慧的力量與人類敏感性相結合的系統,確保技術擴大進步而不是問題。.

馬塞洛·馬爾基
馬塞洛·馬爾基
Marcelo Marchi 在科技業擁有 20 多年的經驗,是 Vericode 的投資者、技術顧問、執行長和創始合夥人,Vericode 是一家專門從事 DevSecOps、連續測試和可觀察性的公司。.
相關事項

留下回覆

請輸入您的意見!
請在此輸入您的姓名

近期新聞

最受歡迎