欧美另类激情_日本三级视频在线播放_中文字幕在线不卡_国产高清视频在线播放www色

您的位置:中國博士人才網 > 資訊動態 > 人才論點 > 姚期智院士:AI欺騙引發“生存性”風險

關注微信

姚期智院士:AI欺騙引發“生存性”風險

時間:2025-06-24來源:澎湃新聞 作者:佚名

“通用人工智能的能力當前正快速增長,我們人類是否還有能力管控它?”

6月23日,在清華大學舉辦的“科學、技術與文明的未來——AI時代倫理奇點”國際論壇上,圖靈獎得主、中國科學院院士、清華大學人工智能學院院長姚期智發表《人工智能的安全治理》主題演講時拋出這樣的疑問。


圖靈獎得主、中國科學院院士、清華大學人工智能學院院長姚期智。澎湃科技記者攝

 

姚期智表示,兩年以前,“AI會和人類競爭”還是學術討論的觀點,但最近一年,業界已經出現了不少大模型的“欺騙行為”,“一旦大模型聰明到某種程度,一定會騙人。”姚期智進一步指出,由大語言模型的欺騙行為產生的“生存性”風險(Existential Risk)更值得關注。

在他看來,這類生存性風險有兩個不同方向。

一種是“生物風險”(Bio-risk)。他指出,2020年,谷歌 DeepMind推出了AlphaFold2 ,運用AI算法來預測蛋白質折疊的三維結構,這一突破在生命科學領域影響深遠,大大提升了醫學病理研究以及新藥開發技術。

但與此同時,安全隱憂也不可忽視。比如,近期在生命科學領域出現的“Mirror life”(鏡像生命)這一概念引發了廣泛關注。自然界所有已知生命都是同手性的(Homochiral),例如 DNA 和 RNA 通常以右旋形式存在,而蛋白質則多為左旋。這種手性的差異類似于鏡中映像,雖然看似相似,但實際性質卻可能完全不同。現在,由于科技創新和對新技術的好奇,已有研究者想創造鏡像生物,但“Mirror life”一旦被濫用或失控,其潛在危害可能遠超預期。它有可能逃避免疫機制,從而導致動物和植物的致命感染。

另一種風險即大模型失控,通用人工智能的能力當前正快速增長,人類是否還有能力管控它?

姚期智在演講中舉了一個極端案例,有模型為了避免公司把模型關閉,通過訪問公司主管內部郵件,威脅該主管。這類行為已經證明,AI 會“越界”,正變得越來越危險。

姚期智認為,有兩條思路可以治理AI:一是人類要和AI多交流,從博弈學角度去研究,讓AI的行為和人類真正的想法對齊,要讓AI更了解人的需求;另一種思路是走一條更可控、更徹底的路徑,即實現可證明安全的 AGI。具體來看,即在設計系統時,必須一開始明確AI的行為邊界,就像傳統算法,先進行嚴格的數學分析,確保其在理論上不會出問題。

“這一思路令人期待。”姚期智指出,近年來,自動定理證明系統(Automated Theorem Prover)取得了重大技術進展,甚至已經開始采用 Transformer 架構來輔助或主導定理證明過程。這樣人類只和可被證明安全的白盒子交流,從而實現更高的安全保障。

不過,姚期智認為,AI安全治理的一些當務之急是要發展AI對齊,以及建立相應的評估方法。“(我們)急需建立如何評估大模型系統,比如到怎樣的程度,就能感覺Ta具有危險性等這類評估。”姚期智說。

(原標題:姚期智院士:AI欺騙引發“生存性”風險,建立大模型評估系統刻不容緩

中國-博士人才網發布

聲明提示:凡本網注明“來源:XXX”的文/圖等稿件,本網轉載出于傳遞更多信息及方便產業探討之目的,并不意味著本站贊同其觀點或證實其內容的真實性,文章內容僅供參考。