公司迅速採用生成人工智慧 (Gen AI) 正在重新定義流程,實現創新和推動自動化。根據彭博情報最近的一項研究,未來十年人工智慧的成長率應該是每年 42%,幾乎是其覆蓋範圍的兩倍。然而,這些解決方案的成功取決於對這些模型資料的仔細管理。這就是網路安全的用武之地,網路安全是保護隱私和資訊完整性的重要因素。
生成式人工智慧超越了僅對行為進行分類或預測的傳統人工智慧模型,因為它創建了文字、圖像和程式碼等新內容。這種創新能力在多個領域開啟了新的可能性,但需要對資料的使用和安全性採取謹慎的方法,這一點得到了日常使用科技的人們的認可。根據 Stack OverFlow 2024 年開發人員調查的研究,與人工智慧合作的主要挑戰之一 (31.5%) 是沒有適當的政策來減輕安全風險。
從這個意義上說, 技術產品經理 Zup StackSpot AI 平台負責人 John Batista 解釋說,鑑於網路犯罪日益複雜,到 2025 年可能造成 10.5 兆美元的損失,為了減輕這些風險,公司必須實施嚴格的安全措施。
「要確保人工智慧模型安全、道德地運行,需要採取多方面的方法,在模型培訓期間結合強大的加密、有效的資料治理、嚴格的隱私實踐和嚴格的存取控制。如果我們為創造技術的公司進行剪輯,那麼經過安全培訓的人工智慧驅動的軟體開發助理可以支援團隊確保程式碼遵循安全的編碼最佳實踐。例如,這是一種預測性漏洞識別機制。越來越多的方法是考慮一項聯合策略,將創新、安全和資料保護視為應用此類技術的重要三腳架。
關於立法,Contractor 聯合創始人兼 CK Reader(新創公司 IA)開發負責人 Henrique Flores 解釋說,雖然我們正在等待立法來更好地規範生成式人工智慧的使用,但技術專業人員有責任確保應用良好的加密實踐、資料匿名化和TI治理政策,可以確保各方商業利益的平衡、演算法培訓機制的透明度以及資料操縱中的道德使用。
技術諮詢、設計和策略 Rethink 首席營運長 Giovanna Rossi 認識到,利用生成人工智慧等新興技術進行創新是一個獨特的轉型機會,但她強調,不可否認的是,它伴隨著重大風險,例如作為敏感資訊的暴露和複雜網路攻擊的可能性。 “作為數位產品領域的負責人,我認為領導階層在使用人工智慧減輕此類風險時優先考慮策略方法是多麼重要。我們有責任以道德和安全的方式塑造這項技術,確保其影響對所有人都是積極和可持續的”,這位高管說。
巴西在網路上流傳的數據量很大,數位化進程加快。在品牌保護方面,BrandMonitor執行長迭戈·達米內利(Diego Daminelli)是打擊數位環境中不公平競爭的先驅和專家,他警告說,巴西的安全基礎設施仍在緩慢發展,使該國成為全球網路攻擊的最大目標之一。世界上,犯罪分子的攻擊更加複雜。 「安全文化仍然是一個很少被幾家公司重視的話題,這些公司不使用人工智慧,而是使用過時的技術,這可能會使他們容易受到攻擊,並且無法監控品牌在整個系列中的數位存在。
專家舉了例子 網路釣魚零售和服務提供等細分市場存在大問題。 “廣告是在數位平台上使用品牌的整個標識和承諾的不切實際的折扣來提供的”。這則廣告導致了一個模仿公司官方佈局的頁面,但地址不同。在此頁面上,產品或服務以極低的價格提供,從而誘導客戶購買」,他總結道