近日,開源 AI 智能體OpenClaw(業內俗稱 “龍蝦”)在國內迅速走紅,引發產業界、地方政府與監管層高度關注。該工具以低門檻、可自主執行任務的特性快速普及,南方科技企業積極響應,地方政府出臺高額補貼政策;與此同時,工信部、網信部門接連發布安全預警,提示其存在數據泄露、系統受控等嚴重風險,技術創新與安全合規的平衡成爲行業焦點。
OpenClaw 是一款開源 AI 智能體框架,因圖標形似龍蝦被通俗稱爲 “龍蝦”。與傳統 AI 聊天工具不同,該產品可在用戶授權下自主瀏覽網頁、收發郵件、管理日程、執行購物與支付等操作,具備持續學習與任務記憶能力,被視爲新一代 “數字員工”。360 等企業表示,該工具顯著降低了 AI 開發與應用門檻,有助於構建開放生態。

在產業端,“龍蝦” 熱度持續攀升。南方頭部互聯網企業設立線下安裝服務點,吸引大量開發者參與,成爲技術推廣的重要力量。地方政府層面,江蘇無錫高新區發佈支持政策,圍繞開源社區建設、技術突破、產業落地等推出 12 項措施,單項最高補貼500 萬元,覆蓋算力支持、人才引育、安全合規等環節,旨在打造 AI 開源產業生態。
與此同時,安全風險警示密集發佈。工信部網絡安全威脅和漏洞信息共享平臺發佈預警,明確指出 OpenClaw 存在嚴重安全風險:工具可自主決策、調用系統資源,權限越高風險越大;第三方技能包缺乏嚴格審覈,易被植入惡意代碼;配置不當可能導致實例暴露於公網,引發數據泄露、設備被控制等問題。
海淀網信辦等官方平臺發文提醒,“AI 龍蝦雖香,別盲目亂裝”,呼籲用戶與機構審慎安裝使用,強化安全防護。國家互聯網應急中心亦補充提示,該工具存在提示詞注入、誤操作刪除重要數據、插件投毒等隱患,已出現實際安全案例。

“龍蝦” 類 AI 智能體在提升生產力的同時,也帶來個人信息保護、算法歧視、精準 “殺熟” 等社會問題,長期來看還可能涉及智能家居控制、關鍵信息基礎設施安全,關乎國家網絡安全。
目前,行業與監管層面形成共識:AI 開源創新不應 “一刀切” 叫停,但必須守住安全底線。專家建議,應建立健全安全審查機制,壓實平臺主體責任,規範跨區域監管與執法協作,在鼓勵技術發展的同時,築牢數據安全與個人信息保護屏障,推動人工智能產業健康有序發展。




