
早在2016年AlphaGo圍棋戰勝世界冠軍的那一刻起,我就一直關注AI技術,期間加上一些科幻電影的劇情推演,由于是一直從事網絡安全工作職業的關系,使得我常常浮想聯翩。直到去年ChatGPT的橫空出世不斷的更新,還有陸奇的一次小范圍演講內容,使得我不得不去認真思考下AIGC可能會帶來的安全隱患。這次收到組辦方的邀約,剛好借此機會我又仔細的梳理了一下過去思考的內容。
有人把AIGC和瘟疫、核彈并列三大危險科技,也許并不是危言聳聽,畢竟數位圖靈獎獲得者和一些社會知名人士曾簽名柬言阻止AIGC的進一步發展。由于我個人一些固化安全習慣性的思維來考慮,就從傳統意義安全的定義方法來談談一些個人的看法,安全包括,機密性,完整性,可用性,可追溯性,可控性,可對抗性,可審查性等幾個角度來聊一下。

用戶的所有輸入信息是否得到保密性確認,用于訓練模型的數據是否來源可靠合規,畢竟訓練是需要大數據大模型,數據可靠性,來源,確權等是否存在違規行為,是否違反《數據安全法》,如果數據投毒怎么辦,是不是可以構造些程序或自然語言對其進行訓練或輸入,是否對結果準確性帶來些重大影響。事實上從我身邊工作所看到的情況,就說明了可能存在大量合規隱患,這可能是未來監管的重點。
AIGC服務是否會遭受拒絕服務等傳統攻擊,輸出的內容是否存在違規言論,甚至國外的一些價值觀,倫理,道德,宗教,地域,性別等因素的歧視,偏見,或讓人不適的內容是否存在。用AIGC生成些攻擊工具,勒索病毒,釣魚攻擊,模擬編寫欺騙性郵件社工攻擊等自動化操作,大大降低了攻擊者的攻擊難度,縮短了攻擊周期,如果批量性自動化的完成這些動作,是不是會讓安全防護的工作壓力大幅度增加。
通過AIGC生成的內容是否會需要打標簽,是否存在侵權行為,還是會用于傳播謠言,如果深度偽裝做得比人工還要逼真,由于純自動化的去生產傳播這些謠言,會不會造成謠言滿天飛,從而增加辟謠成本或言論失控,化身成無數水軍使得假消息弄假成真。這些產生的數據是否會進一步用于大模型的訓練。
AI的大模型構建越來越多,對自然語言的理解積累越來越多,算力進一步的提升,一旦超過人類大腦神經元數量的時候,是否會引發機器的產生意識,自我思考,自我覺醒,會不會自我復制,甚至可以有意識的去偽裝欺騙人類從而繞過人類設置的控制程序,最終造成人機大戰失控。我始終相信智慧的人類會最終取得勝利,但人性中固有的傲慢偏見可能會帶來不小的災難。
AIGC的大模型,算法以及算力,我們不得不承認主戰場還是在歐美國家,畢竟高科技的主導以及高端領域的人才集中化,使得我們國內始終還處于追隨者地位,盡管國內的所謂“百模大戰”,如火如荼,確實也能看到國內有不少優秀的企業和人才在資本的推動下飛速發展起來。高端算力芯片的技術封鎖使得我們還有很長的路要走,可替代的芯片算力夠不夠,如果算力夠,會不會引起水資源用于降溫的能源危機。特斯拉Dojo自動駕駛訓練有一萬個H100芯片,一年芯片降溫所消耗的水資源據說有200個西湖,每一次的運算會喝掉很多的水,國內的“百模大戰”會不會因缺水而終止,不得而知。
AIGC可以用于攻擊代碼的生產,同時也可以利用大模型構建攻擊防御體系,比如威脅情報的分析,攻擊日志分析報告的快速生成,自動運維使用AIGC做些風險預判等等,都是些比較好的思路,甚至海量信息輸出后的自動審查,圖片語音視頻的自動化核查和自然語言的識別能力,自動化的阻止含有非法言論或用于詐騙信息的生成。用AI治理AI,到底誰能更勝一籌,目前還不得而知,只能依賴于模型算法,在可見的未來世界里只會是對抗越來越激烈,由于攻擊防守雙方都有了這個“葵花寶典”般的工具,攻擊性破壞性太大,用于防守的成本也會愈發提高。
機器目前已經證明了在多個領域完勝人類,這已經是不爭的事實,重復性的工作,甚至創造性的工作都能完成很出色,而且高出人類數十倍數千倍的效率。律師、教師、醫生、金融、制造各個領域,甚至政務服務,制藥等等各個領域用于賦能,降本增效,是否帶來大量人員失業,從而引發的社會安全問題,當然也會有用于養老來解決當前老齡化等問題也有正向的影響。
AIGC發展的熱烈程度是超乎我的想象的,幾乎各個論壇都在廣泛的宣傳討論,為防止出現安全的問題,主管部門也出臺了政策監管的一些管理辦法,但總的來說還是不全面,滯后或者是被動的局面,這使得會出現真空期的監管失效。各個國家出臺的法律法規都有所不同,有的包容性多一些,有的甚至一刀切,帶來的版權違規等法律問題目前看還未得到妥善的解決,這都會影響AIGC未來的發展。
無論是產業的上下游,還是輸入,算法和輸出,AIGC的各個環節的安全風險始終存在,而且不會憑空消失,程序是人編寫的,就會存在程序漏洞或缺陷,在AIGC飛速狂飆的時候,也需要來一腳安全的剎車,也許這樣才會行得更穩,走得更遠一些。希望未來AIGC的發展始終秉承科技向善的理念,積極擁抱新科技,畢竟科技的發展洪流誰也無法阻擋。