最近圈子裏流行把AI戲稱爲“龍蝦”——大概是因爲LobsterAI的Lobster二字,讓人忍不住這麼叫。打開手機,滿屏都是“不會養龍蝦就會被淘汰”“靠龍蝦月入十萬”的焦慮敘事。好多朋友跑來問我:“律師,你怎麼看?我要不要趕緊砸錢學?”
這幾天我自己也一直在想這件事,說完全不焦慮,是假的——看着身邊人陸續開始用AI提效,總會隱隱擔心:跟不上,會不會真的被時代甩在後面?可真要一頭扎進去,又不知道哪條路是坑、哪條路是路,越想越拿不定主意。
這種感受,我相信不止我一個人有。
確實,2026年開年以來,AI行業的技術迭代確實肉眼可見地快:釘釘開放了大模型API限時免費調用,網易LobsterAI打通了企業微信、QQ等主流辦公平臺,智譜推出了可以一分鐘本地部署的AutoClaw技術。看起來好像“不用AI就真的落伍了”——但另一邊,監管風險提示也從未停過,兩邊聲音同時響,普通人站在中間,確實很難判斷。
作爲天天和風險、規則打交道的律師,我反而覺得:越是全民搶熱點的時候,越需要先停一步——把規則的邊界理清楚,再決定往哪走。今天把我梳理的三點思考分享出來,不管你已經在“養龍蝦”,還是正在猶豫要不要進場,希望都能做個參考。
一、龍蝦好養,但坑是真實的——合規風險不能用“快”來賭
AI領域的規則,還在逐步落地的過程中——訓練數據的來源合規、算力服務的監管要求、數據安全的邊界劃定、普通用戶的權益保障,每一項都尚未完全釐清。
有一個細節,很多人沒有注意到:部分境外AI平臺的用戶協議中,約定了平臺對用戶上傳內容享有廣泛的使用授權,包括用於模型訓練——而這類條款往往藏得不顯眼,大多數人根本不會仔細翻閱。這意味着,你隨手把工作文件、客戶信息輸進去的那一刻,相當於在不知情的情況下完成了一次授權——而一旦權益受損,連明確的管轄法院、維權依據都很難找到。
不只是數據授權,消費權益層面同樣存在灰色地帶——就像黑貓投訴平臺曾披露的案例,某影音平臺藉助AI算法的“暗箱推薦”,在沒有明顯提醒的情況下連續扣費三年半,用戶發現時已損失數千元,維權過程也因平臺協議的模糊條款走了很多彎路。這些,都是新技術落地過程中規則不完善給普通用戶挖的坑,踩進去代價不小。

二、這隻龍蝦,可以等國內的“合規版”——不熟悉規則,先別急着趕車
對於不熟悉技術邏輯、也不瞭解數據合規規則的朋友,我其實建議:不必急着趕這班車。
目前主流的境外大模型,數據中心大多設在海外,數據出境本身就涉及《個人信息保護法》的合規風險。一旦發生數據泄露,國內監管的管轄權和維權路徑都極爲模糊。已經有人因爲輕信AI工具、輸入個人銀行卡信息後遭到盜刷——類似的案例還有很多,從個人信息泄露到商業競爭中的AI不正當競爭,都已有跡可查。
而國內大模型的技術進展,其實遠比很多人想象的要快——頭部企業已推出合規的本土大模型,不少平臺也開放了面向中小企業的免費普惠服務。等國內技術和規則都落地之後再放心使用,也完全來得及。慢一步不代表落後,踩錯坑纔是真的浪費機會。
三、龍蝦再能幹,有些事還是隻有“人”能做
很多人問我:AI會不會有一天替代律師,替代各行各業的從業者?
從法律的底層邏輯來看,我覺得這個問題本身就值得重新想一想。法律從誕生之初,調整的就是人與人之間的社會關係——而AI是工具,無論迭代多快,永遠無法替代人的價值判斷、情感連接和利益平衡。
就像我在處理案件時,AI可以在幾分鐘內檢索出相關判例,但最終如何在法理和情理之間找到那個平衡點,如何在庭審上判斷對方的真實意圖,如何爲當事人在規則框架內爭取到那一分可能——這些,永遠需要人來完成。我們會爲了當事人的合法權益在法庭上據理力爭,會在法理之外去考量情理,會爲了守住公平的底線付出遠超預期的時間和精力——這些根植於人性的溫度與判斷,是技術無法復刻的核心競爭力。
哪怕未來AI能幫我們承擔大量基礎性工作,但最終做出決策、承擔責任的,始終是我們自己。這,就是法律語境下,人永遠不可替代的理由。
其實面對AI這件事,不必非要逼自己“要麼all in,要麼被淘汰”——會用工具當然是加分項,但守住自己的能力邊界、不盲目踩未知的坑,本身也是一種清醒。
作爲法律人,我始終相信:新技術到來的時候,搞清楚規則、守住底線,慢慢找到屬於自己的節奏,纔是最篤定的走法。就像王陽明說的,“山高萬仞,只登一步”——不必焦慮,也不必排斥,每一步走實了,都算數。
如果你對AI合規、個人信息保護還有疑問,歡迎留言,我們一起聊。




