爆火“小龍蝦” 背後,張亞勤警告:AI失控,整個社會都可能癱瘓!

由 聊一波王波明 發佈於 財經

'26-03-11

*本文僅在今日頭條發佈,請勿轉載

這兩天,開源AI智能體OpenClaw(“小龍蝦”)爆火,掀起一波“養蝦潮”。因此引發了AI風險的熱議,那麼背後的安全隱患到底是什麼?針對此問題,《聊一波》欄目邀請中國工程院外籍院士、清華大學智能產業研究院創始院長張亞勤展開探討。

王波明:AI如今的能力越來越強,伴隨的風險也日益增高。是不是因爲它具備自主學習功能?

張亞勤:它能夠自主學習、自主進化,因此其智能水平可能會超越人類。相關風險確實在不斷擴大。目前互聯網上已有超過一半的內容由AI生成,增長速度極快:去年這一比例仍爲20%,而今年相關數據已剛剛突破50%。

王波明:這實際上會帶來一定的金融風險。例如當前廣泛應用的人臉識別技術,AI生成的相關內容,理論上可以將銀行賬戶內的資金全部轉走。

張亞勤:這類事件已經真實發生。例如去年在香港發生一起案件:某公司首席財務官參與視頻會議後,兩億元資金遭轉走。事後發現,會議中的四五名參會人員,除一人外其餘均爲虛擬形象,連首席財務官的形象也是僞造生成的,這是真實案件。類似事件還有很多,但這類風險仍屬於數字風險、信息風險。若此類風險延伸至無人駕駛汽車、無人機、電網、核電站等關鍵基礎設施領域,一旦AI失控,後果將不堪設想。

王波明:一旦被攻破,是不是整個社會都可能陷入癱瘓?

張亞勤:是的。以往的風險主要是利用深度僞造等技術生成虛假信息,最多隻是盜取資金;而一旦延伸至物理世界,風險將大幅提升。此外,AI還存在另一項風險:當前大模型雖表現良好,但其運行機制存在一定的黑箱效應,並非完全不可解釋,但在很多情況下,我們對其內在機理尚未完全掌握。其決策邏輯並非完全基於因果關係,很多時候只是關聯關係——A事件發生、B事件發生,二者僅爲巧合,而非A導致B。

因此模型的輸出本質上是概率性結果,即便99.99%的情況正確,仍存在小概率出現嚴重錯誤。對於大模型,我們除關注效率與準確率外,還需深入研究其運行機理,正如人類對自身大腦的認知仍十分有限,仍有大量科研探索空間。

第一需要明確邊界。我們與美國、歐洲的科學家共同建立了全球人工智能風險對話機制,首要任務是劃定紅線,明確哪些行爲可以開展、哪些行爲嚴禁實施,這一點至關重要。

第二要設定運行邊界,確保AI在可控範圍內運行。

我們最終的期望是:AI能夠像人類一樣,且秉持善意。這包括爲其提供乾淨、合規的優質數據,在模型構建的各個環節嚴守邊界、不觸碰紅線,同時推動AI與人類價值觀、法律法規及政策規範持續對齊。

此外,AI必須保持可控,絕不能被不法分子利用。

Scroll to Top