隨著AI大模型的應用范圍越來越廣,“生成式人工智能技術”在迅猛發展的同時,也帶來了技術安全風險。面對AI大模型引發的全新安全挑戰,行業應從哪些方面進行安全維護?北信源作為終端安全領軍企業,在28年的發展中積累了深厚的安全技術和豐富的安全服務經驗,不斷將自身的安全理念融入AI的研究與應用中,并結合我國法律法規要求,針對法信法律基座大模型技術結構特點,從供應鏈安全風險和運行安全風險兩個方面來識別其風險與安全威脅。
(一)供應鏈安全解決方案
供應鏈安全風險涉及多個環節包括硬件安全、軟件及AI組件安全、數據投毒等,還有模型后門、大模型幻覺、提示詞注入、對抗攻擊、價值觀倫理安全、大模型濫用等各類風險。
北信源結合多年網絡和數據安全的經驗,通過嚴格的供應鏈審查、安全認證、數據加密,以及外包管理,有效減少了供應鏈安全風險對法信法律基座大模型的影響,并提出五大應對措施:
(1)安全驗證:對所有使用的軟件及AI組件進行安全驗證,使用安全掃描工具識別潛在的漏洞。在使用第三方模型或預訓練模型前,進行詳細的代碼審查和模型測試。
(2)對抗訓練:在訓練模型時,故意引入一些帶有噪聲或對抗性干擾的輸入,訓練模型在遇到這些擾動時仍能正確預測。可以提升模型在面對攻擊或意外輸入時的穩定性。
(3)數據增強:通過在訓練過程中增加更多樣化的數據(例如改變角度、添加噪聲、調整亮度等),可以提高模型對現實世界中各種不同情況的適應能力,減少其對特定輸入的依賴。
(4)魯棒性測試:定期對模型進行魯棒性測試,包括模擬不同的惡意攻擊或異常數據輸入,查看模型是否能穩定表現。可以找出模型在面對哪些情況時容易失敗,從而有針對性地改進。
(5)輸入數據校驗:在模型使用前,增加一層驗證機制,檢查輸入數據是否被篡改或添加了異常信息。運行安全風險包含了通信網絡安全、區域邊界安全、計算環境安全、平臺漏洞、數據泄露、隱私泄露、數據竊取與篡改等。
(二)運行安全解決方案
運行安全風險包含了通信網絡安全、區域邊界安全、計算環境安全、平臺漏洞、數據泄露、隱私泄露、數據竊取與篡改等。
基于等級保護構建“一個中心(安全管理中心)、三重防護(安全通信網絡、安全區域邊界、安全計算環境)”的縱深安全防護體系。并增加了大模型業務特有的安全防護保障能力,應對措施包含以下六個方面:
(1)安全開發和代碼審查:在AI系統開發過程中,采用嚴格的安全開發流程,確保每一步都經過安全性驗證;定期進行代碼審查和安全測試,識別并修復潛在漏洞和后門。
(2)模型驗證和測試:使用防后門檢測工具和對抗性測試,對AI模型進行全面的安全性評估,確保模型未被植入惡意后門。
(3)強化訪問控制:通過部署AI防火墻,實施嚴格的訪問控制策略,限制只有經過授權的人員才能訪問和修改AI系統的核心代碼和模型。
(4)防篡改機制:使用防篡改技術保護模型的完整性,確保模型在使用過程中不會被未經授權的修改或注入惡意代碼。
(5)模型更新和監控:使用AI漏洞探測系統定期更新AI模型和系統,修補已知漏洞,并對模型的行為進行持續監控,識別任何潛在的異常活動。
(6)輸出后驗證:使用信源密信系統和密信AI能力安全平臺,對模型的輸出進行驗證,向用戶提示模型的輸出可能不完全準確,提醒用戶進行核實,保障最終輸出環節的驗證。
隨著時代的發展,AI大模型的應用范圍越來越廣,在使用過程中,我們應嚴格遵循法律法規,確保其安全性與合規性,共同營造一個健康、有序、可持續的 AI發展環境,共迎AI時代的機遇與挑戰!未來北信源仍將不斷創新研發,積極探索“AI+安全”解決方案,幫助用戶更安全地享受AI技術帶來的便捷和高效。