《連線》雜志的一篇文章提到,一些人認為生成式AI像原子彈一樣,具備改變世界的強大能力,但也有人注意到,生成式AI比原子彈更危險。
在曼哈頓計劃中,只有奧本海默等少數物理學家了解這項技術,技術發明以來也一直被全球嚴格控制。而現在,生成式AI則是所有人都觸手可及的能力,可以被輕易濫用。
當然,技術本身是中立的,它的使用和影響取決于使用它的人。對于更多企業來說,既要應對生成式AI帶來的安全威脅,也要正確合理地確保生成式AI安全落地,保障生成式AI系統的安全。
在網絡安全領域,生成式AI是不折不扣的雙刃劍
在網絡安全領域,生成式AI會被黑客用濫用在網絡攻擊領域,也會被安全工作人員當做絕佳的防御工具。
我們能看到,2023年上半年,市場上出現WormGPT和FraudGPT這樣的工具,可以用于網絡詐騙和網絡勒索等惡意活動,能讓黑客發起更復雜的攻擊。
Darktrace的研究顯示,自ChatGPT為代表的生成式AI技術興起以來,復雜的網絡釣魚攻擊數量上升了135%。
我們也欣喜地看到,2023年3月,微軟推出了SecurityCopilot工具,這是一個可以強化安全防護能力的工具,該工具可以通過自動化任務,匯集來自多個來源的安全數據和警報,從而快速檢測和響應威脅,以幫助安全團隊提升工作效率。
2023年6月,OpenAI宣布計劃投入超過100萬美元來啟動一項網絡安全創新扶持計劃。該項目為的是提升由人工智能技術驅動的新一代網絡安全能力建設,并促進高水平人工智能技術和網絡安全應用間的協同效應。
企業安全領域的工作者應該意識到,生成式AI已成為網絡安全領域不可忽視的重要組成部分。它既帶來了更嚴重的安全威脅,同時也開辟了新的安全防護路徑,只有充分認識到生成式AI的影響力,才能在不斷變化的威脅環境中為企業保駕護航。
生成式AI帶來強大而高效的安全工具
生成式AI不僅可以創建逼真的圖像、文本或視頻,能極大地提升我們處理和分析信息的能力,還能不斷學習和進化,準確地理解和執行復雜任務。在安全領域,這種能力將帶來強大而高效的工具,更好地識別和應對威脅,保護數據和系統不受侵害。
具體而言,生成式AI在六個方面都能提供很大幫助。
首先,生成式AI可以提高威脅檢測和響應的有效性。與剛才提到的SecurityCopilot類似一樣,生成式AI可以快速分析海量數據,快速檢測到網絡流量中的異常,反常的用戶行為,可疑的電子郵件,從而快速識別惡意軟件、釣魚攻擊或內部攻擊等威脅。
同時,生成式AI的預測能力能更主動地做出預防措施。通過從以往的事件和網絡安全趨勢中汲取經驗,生成式AI可以預測未來威脅或識別潛在的漏洞。從而使組織能夠積極主動地采取安全措施,在漏洞被利用之前就加以解決。
生成式AI提高了安全防護的自動化程度和工作效率。通過自動執行的威脅檢測,生成式AI可以加快發現和應對威脅的速度,從而減少潛在損失。此外,大量日常網絡安全任務也可以自動化來執行。這不僅能提高效率,還能讓安全人員專注于更具戰略性和更復雜的任務。
生成式AI提高取證分析的效率和準確性。通過與威脅情報平臺和數據庫集成,生成式AI利用模式檢測和識別代碼相似性等功能來揭示可能會被手動操作遺漏的隱藏證據,快速分析惡意軟件樣本,解決一系列復雜的數字取證調查問題。
生成式AI也可用于個性化安全培訓。生成式AI還可以根據員工的角色、過往行為和可能面臨的威脅,為員工設計個性化的安全意識培訓內容。這有助于減少人為錯誤,而人為錯誤是造成許多安全漏洞的重要因素。
生成式AI還有助于擴大安全運營規模。生成式AI在安全方面提供的諸多便利,讓安全團隊可以更快地獲取更豐富的見解,并據此采取行動,將更多精力放在更重要的事項上。
如何保障生成式AI系統的安全
生成式AI在帶來巨大安全優勢的同時,也帶來了新的挑戰。企業希望生成式AI在企業落地并幫助企業構建競爭優勢時,還應該注意如何確保生成式AI安全運行。因為生成式AI系統也可能會成為網絡攻擊的目標,如果得不到適當的保護,它們的功能可能被惡意利用。
由于生成式AI系統依賴于海量數據進行學習和決策,因此,對于數據的隱私和完整性有很高要求。通常需要對數據實施數據分類加密,需要有強有力的訪問控制機制以及安全的數據存儲和傳輸技術。
戴爾科技作為全球大型IT基礎設施服務商,不僅有久經考驗的企業級服務器、存儲系統技術方案,還提供了備份、容災和CyberRecovery數據避風港“三位一體”的數據保護解決方案。無論是存儲、處理還是傳輸過程,都能夠幫助企業將數據隱私和數據完整性提高到很高的水平。
在解決數據隱私和數據完整性問題的同時,還應該注意“對抗攻擊”的問題,防范通過惡意操縱AI系統的輸入數據來欺騙AI系統,讓系統發生故障或做出錯誤的決定。因此,企業還需要執行強有力的測試和驗證程序,并研究如何防御此類攻擊。
同樣的,還要防止AI系統被惡意濫用。企業必須監視生成式AI系統的使用,并采取措施來檢測和應對濫用行為。比如,要驗證視頻或音頻的真實性,防止利用生成的虛假內容制造假新聞或者用于誹謗、欺詐等,從而造成負面影響。
此外,與所有AI一樣,生成式AI系統基于大量數據訓練而來,如果這些數據中包含了某些偏見,生成式AI系統也受到影響,從而作出不公平或歧視性的決策。要解決這個問題,需要定期審計,采用減少偏見的技術并遵守道德準則。
最后,生成式AI是非常強大的智能系統,企業應該對落地的生成式AI系統實施強有力的訪問控制措施,以零信任架構來管理訪問權限,這對于防止未經授權的訪問和阻止潛在的系統濫用有積極作用。
戴爾科技集團可顯著簡化零信任的落地,不僅在產品方案中內置了零信任架構,而且還在構建集成的零信任架構。戴爾科技提供零信任相關服務,可協助制定路線圖、集成關鍵技術并實施主動管理。同時,還有專業的安全咨詢服務以及廣泛的合作伙伴生態幫助企業落地零信任架構。
結束語
總之,AI對網絡安全來說是一把雙刃劍。一方面,它將帶來新的安全威脅,另一方面,它可以幫助企業安全體系提高威脅檢測和響應能力,提高預測能力和安全運營效率。
隨著生成式AI時代的到來,AI與網絡安全將相互影響。考慮到生成式AI的強大能力,企業需要通過強有力的安全措施來持續監視、定期更新和修補來應對風險,保護好生成式AI系統,讓生成式AI為企業產出更多價值。