不同于云計算時代的安全命題,AI時代的安全威脅不僅來自外部,還可能來自內部,且威脅的性質更加復雜和多樣化。能看到的是,安全挑戰(zhàn)正在擴展到企業(yè)AI體系的全生命周期,防護手段急需升級。
作者|斗斗
編輯|皮爺
出品|產業(yè)家
在短短10分鐘內,一筆高達430萬元的巨款被騙走。這僅僅是AI技術普及后,由AI換臉、變聲等技術引發(fā)的違法犯罪案件冰山一角,直接觸及消費者身邊的安全問題。
奇安信發(fā)布的《2024人工智能安全報告》數據顯示,2023年基于AI的深度偽造欺詐案件激增了3000%。
生成式AI不僅為企業(yè)帶來速度、規(guī)模、精度和先進性等益處,也降低了攻擊者的技術門檻。過去,黑客生產一個攻擊病毒可能需要數月時間,但現(xiàn)在通過AGI(人工智能生成模型)工具,可能幾分鐘就能生成,黑客攻擊的效率和范圍因此大大提高。
另一組來自DeepInstinct的第四版報告指出,2024年有75%的安全專業(yè)人員目睹了網絡攻擊的增加,其中85%的攻擊由生成式AI驅動。
黑客不僅會利用AI技術威脅企業(yè)組織,還會嘗試攻擊企業(yè)的AI模型,即利用企業(yè)的AI來對付企業(yè)。例如,他們可能讓企業(yè)的AI對供應鏈做出錯誤預測,或者使聊天機器人產生仇恨情緒。他們還可以通過使用基于語言的提示來“破解”企業(yè)的LLM,使其泄露機密財務信息、創(chuàng)建易受攻擊的軟件代碼,或為企業(yè)的安全分析師提供錯誤的網絡安全響應建議。
此外,黑客還覬覦企業(yè)的大模型基礎設施。例如,2024年初,美國一個擁有數千臺服務器的算力集群就被攻破,并被用于挖掘比特幣。
AI,正在全方位“威脅”企業(yè)安全,包括網絡安全、軟件安全、數據安全、主機安全,以及倫理安全和人質安全等多個方面,呈現(xiàn)出復雜性和多元性的特點。 這迫使許多企業(yè)不得不增加預算,以應對AI時代帶來的各種變數。
根據IBM的“生成式AI時代的網絡安全研究報告”,高管們表示,他們2023年的AI網絡安全預算比2021年增加了51%,并預計到2025年,這些預算將再增加43%。
在AI引導 的新一輪技術革命中,技術服務商既需要利用AI技術提升安全能力和運營效率,又需要助力對抗新技術帶來的新風險。而對于企業(yè)來說,必須緊跟時代步伐,但如何規(guī)避沿途的危險,成為了一個亟待解決的問題。
AI時代,安全這道題如何解?
一 、AI技術,發(fā)展的“暗面”
“狹義的數據安全是免受篡改和破壞,但是廣義的數據安全是包括數據的可靠性、安全性、服務內容的安全性,在人工智能時代,還會擴展數據安全的內涵,當然也會放大數據安全的風險。” 中國工程院院士鄔賀銓曾說道。
一個事實是,在AI時代,數據安全的定義正在發(fā)生變化。AI技術的脆弱性和對數據的強依賴性,使得企業(yè)在享受AI帶來的便利時,也面臨著前所未有的數據安全挑戰(zhàn)。
企業(yè)想要實現(xiàn)AI賦能,首要步驟便是收集大量、多樣且具代表性的訓練數據。 然而,這些數據的來源可能并不安全,收集過程中存在 被竊取的風險,甚至可能因未經同意而違反隱私政策和法律。
數據收集之后,還需經過清洗、標注和增強等處理環(huán)節(jié)。若此過程中有惡意數據注入,將直接導致模型訓練偏差,進而影響模型決策的準確性。奇安信數據安全首席科學家劉前偉曾強調:“標注數據的防篡改要求非常高,因為它是確保大模型質量最重要的保障?!?/strong>
接下來,就是基于底層大模型訓練,需要使用專有數據對基礎模型進行微調和訓練,并保存成新的版本。
如果是合作模式,比如現(xiàn)在很多高校與企業(yè)或者企業(yè)與企業(yè)之間合作開發(fā)大模型。這種模式則需要共享數據資源,以增強模型訓練效果,并共同進行模型訓練和優(yōu)化。
但無論哪種模式,都會面臨一定的數據安全問題。比如基于底層大模型訓練模式以及合作模式下,會出現(xiàn)這樣一種狀況,即雙方都想利用對方的數據,但是都不愿意把自身的數據完整的交給對方,如果交給第三方,也不一定相信第三方非常公正和安全。
此外,模型設計、訓練、調優(yōu)、測試和部署等環(huán)節(jié)同樣不容忽視。特別是云部署模式,企業(yè)需根據自身業(yè)務需求選擇私有云、社區(qū)云、公共云或混合云。然而,每種部署模式都面臨不同的數據安全問題。
對私有云而言,其本地存儲的數據如果缺乏有效的加密和訪問控制,可能會被未經授權的用戶訪問。有權訪問敏感信息的員工可能會無意中或故意泄露數據。
公有云更是如此,其基于云端的數據更容易受到黑客攻擊和數據泄露的風險,公有云服務的用戶必須要正確配置身份驗證和訪問控制,否則可能導致數據泄露。
混合云架構通常涉及不同云計算提供商的基礎設施,數據在傳輸過程中可能被截獲。 且在混合云環(huán)境中,身份驗證和授權變得復雜,需要統(tǒng)一的身份和訪問管理工具來確保安全。在混合云中,數據如果沒有得到適當的冗余和備份,數據丟失的風險會變得很大。
可以說,面對AI時代的復雜性和動態(tài)性,傳統(tǒng)的數據安全舉措已難以應對新的挑戰(zhàn)。企業(yè)需采取全面的安全策略,并持續(xù)進行技術改進,以最大限度地減少數據安全風險。這要求企業(yè)在數據收集、處理、存儲和傳輸等各個環(huán)節(jié)都保持高度警惕,確保數據的安全性和可靠性。
二 、AI對抗“AI”
在AI時代背景下,企業(yè)數據安全成為了不可忽視的重大課題。為了確保數據的完整性與保密性,一系列策略與技術應運而生。
數據加密作為數據治理的基礎防線,如同為數據穿上了一層堅不可摧的防護服, 無論是在數據傳輸還是存儲過程中,都能有效抵御外部威脅。此外,同態(tài)加密技術的引入,更是為數據的加密防護增添了新的維度。它允許數據分析者在不解密的前提下對數據進行處理,既保障了數據的安全性,又滿足了數據分析的需求。
在數據標注與增強環(huán)節(jié),訪問控制和多因素認證機制扮演著至關重要的角色。 它們如同城堡的守衛(wèi),嚴格把控著數據的入口,確保只有經過授權的用戶才能訪問數據。同時,數據脫敏技術的應用,則為敏感信息披上了一層神秘的面紗,即使在必要的交流過程中,也能有效保護數據的隱私性。
模型安全方面,對抗性攻擊的防御機制和模型水印技術為模型的安全保駕護航。 它們如同城堡中的陷阱與哨兵,時刻警惕著潛在的威脅,確保模型不受惡意攻擊和非法使用的侵害。
針對AI時代數據共享難題,隱私計算和多方同態(tài)加密技術提供了有效的解決方案。 通過特定的密鑰控制,實現(xiàn)數據的加密計算,確保數據在共享過程中既可用又不可見。此外,分布式存儲與密鑰控制技術的結合,也為數據的按需調用與解密計算提供了便捷的途徑。
值得注意的是,在生成式人工智能時代,數據安全所面臨的挑戰(zhàn)愈發(fā)復雜多變。生成式AI以其強大的創(chuàng)造力,不斷催生新的數據和內容,同時也為數據安全帶來了新的風險。這些風險往往具有動態(tài)性和不可預測性,傳統(tǒng)的安全檢測方法可能難以有效應對。
面對這一挑戰(zhàn),企業(yè)不能僅僅依賴人工或固定的檢測方法,而應借助AI的力量,以AI對抗AI。
目前,越來越多的企業(yè)開始將AI技術應用于數據安全領域,通過機器學習和深度學習技術,實時監(jiān)測網絡流量,識別異常行為,實現(xiàn)快速響應潛在的安全威脅。AI不僅能夠自動化安全策略的制定和實施,提高安全防護的效率和準確性,還能通過學習正常的網絡行為模式,識別出與眾不同的行為,實現(xiàn)早期威脅檢測。
IBM商業(yè)價值研究院的研究顯示,64%的高管已將網絡安全確定為生成式AI用例的首要任務,84%的人表示他們計劃優(yōu)先考慮生成式AI網絡安全解決方案,而非傳統(tǒng)的網絡安全解決方案。這一趨勢表明,AI在數據安全領域的應用正逐漸成為主 流。
以阿里云發(fā)布的實人認證產品為 例,該產品能夠有效對抗Deepfake攻擊,提供八大Deepfake鑒偽能力,日均攔截攻擊量高達25萬次,攻擊攔截率高達99%。該模型還具備分鐘級自我更新能力,能夠應對不斷迭代的攻防技術,確保數據安全。
總之,在不斷變化的風險環(huán)境中,技術服務商需要借助AI的力量來應對數據安全的新挑戰(zhàn)。通過不斷研發(fā)和優(yōu)化AI安全產品和技術,更好地保護企業(yè)的數據安全,為AI技術的健康發(fā)展提供有力保障。
三、技術高峰中的安全洼地
一組引人深思的數據顯示,2023年,國內26家上市網絡安全企業(yè)中,有3/4處于虧損境地。然而,僅2024年上半年,就已曝出多起影響深遠的數據泄露事件,涉及的記錄數量驚人,高達十億條。
這種強烈的反差揭示了一個嚴峻的現(xiàn)實:盡管企業(yè)對安全技術有著迫切的需求,但技術供應商卻普遍面臨虧損。
背后的原因何在?
《2022年中國企業(yè)數據安全現(xiàn)狀調查報告》揭示了其中的關鍵:超過半數的企業(yè)認為,市場上的數據安全產品和服務僅能滿足其不到60%的需求。這意味著,現(xiàn)有的數據安全解決方案存在明顯的不足,導致企業(yè)在數據安全方面的投資未能達到預期效果,無法有效抵御數據泄露和網絡攻擊的風險,進而造成資金損失。
需求和供給嚴重不匹配。
此外,在日益復雜的安全管理環(huán)境下,企業(yè)往往面臨著諸多碎片化的安全問題。公開數據顯示,企業(yè)平均部署的安全產品和工具多達76個,而混合云的滲透率也在逐年攀升,這無疑增加了安全管理的復雜度。
因此,一個能夠全方面解決AI安全問題的方案顯得尤為重要。
一個事實是,不同于云計算時代的安全命題,AI時代的安全威脅不僅來自外部,還可能來自內部,如AI系統(tǒng)的誤判、偏見、數據泄露等。且威脅的性質更加復雜和多樣化,包括數據隱私、算法偏見、模型安全等多個方面。安全挑戰(zhàn)也擴展到AI系統(tǒng)的全生命周期,包括設計、研發(fā)、訓練、測試、部署、使用、維護等各個環(huán)節(jié)。
所以,AI安全的防護手段需要進一步的補足。這種補足不僅涉及規(guī)范層面的完善,還需要具體的技術和管理措施來支撐。
比如制定嚴格的數據隱私保護法規(guī),明確數據使用的范圍和目的,以防止數據濫用和泄露;制定統(tǒng)一的人工智能安全認證標準和規(guī)范,對AI技術和系統(tǒng)進行評估和認證;建立起AI的安全標準體系,確保各種AI系統(tǒng)都能夠遵循相應的安全規(guī)范。
9月9日,全國網絡安全標準化技術委員會正式發(fā)布了《人工智能安全治理框架》1.0版(以下簡稱《框架》),并提出了AI安全治理原則,將AI安全風險分為內生安全風險和應用安全風險兩種,并針對兩種風險分別提出了技術應對措施。該《框架》的發(fā)布將促進AI產業(yè)安全有序發(fā)展,加速AI技術規(guī)范化發(fā)展。
在具體的舉措方面。目前,市場上已經出現(xiàn)了一些針對AI安全的解決方案。例如,奇安信集團推出的國內首個AI安全整體應對方案,涵蓋了AI安全框架、解決方案、評估服務和檢測工具等多個方面。
同時,大模型廠商也推出了全棧式的安全防護體系。如阿里云的模型全生命周期安全防護體系和百度智能云的全棧式服務能力等。這些解決方案不僅涵蓋了數據的采集、模型設計、訓練、評測、部署和使用等各個階段,還提供了豐富的安全產品和技術支持,幫助企業(yè)構建全方位的數據安全防護體系。
未來,數據安全這個命題,隨著越來越多的AI應用落地,其定義或將更加廣泛,面臨的挑戰(zhàn)亦越來越大。只有時刻保持警惕,不斷創(chuàng)新,加強合作,才能共筑起一道堅不可摧的數據安全長城。
本文來自投稿,不代表增長黑客立場,如若轉載,請注明出處:http://m.gptmaths.com/cgo/coo/125508.html