近期,全國多地掀起一股“養龍蝦潮”。不過,人們“養”的并非真龍蝦,而是一款名為OpenClaw的開源人工智能(AI)智能體。這款圖標為紅色龍蝦、宣稱能“接管電腦、解放雙手”的智能體,迅速吸引了大批用戶嘗鮮。然而另一邊,官方和網絡安全專家都在緊急警示:這類基于開源模型的私自部署,若安裝配置不當,很容易引發網絡攻擊、隱私泄露等嚴重安全問題。
數據顯示,截至2025年12月,我國生成式人工智能用戶達6.02億人,較2024年底增長141.7%;普及率達42.8%,同比大幅提高25.2個百分點。這股“養龍蝦潮”,再度折射出中國網民對AI等新技術的好奇與接納。但在技術快速下沉和應用的背后,安全邊界與監管邏輯也在面臨挑戰。當缺乏安全審計的開源模型,被直接部署到物聯網控制、支付等敏感環境,黑客植入的后門、用戶配置不當導致的端口開放等疏漏,可能造成巨大的安全風險。更關鍵的是,這些未經本土化對齊的模型,在內容生成、數據跨境流動等方面,極有可能觸碰數據安全法、個人信息保護法的紅線。而由于是個人部署行為,相關責任或損失也大概率只能由用戶自己承擔。
近期深圳“龍崗10條”、無錫“高新區12條”等規范措施征求意見稿密集出臺,為這股熱潮提供了理性的方向標。無錫高新區明確提出,要推動AI在實體經濟中的深度應用,同時強調數據安全和隱私保護,在云平臺強制實施最小權限原則,禁止訪問敏感數據目錄;深圳“龍崗10條”則側重引導構建完整產業生態,支持本土企業提供安全可控的AI解決方案。這些地方措施在鼓勵創新的同時,也劃定了邊界:技術帶來的生產力提升必須在可控范圍內釋放,而非失控的野蠻生長。
在這一背景下,構建本土化生態,是實現為“安全養龍蝦”護航的兩全之舉。對用戶而言,本土化生態意味著安全與省心。相比需要搭建軟件環境、調試參數、部署云服務器的手動“養龍蝦”,本土化能夠顯著降低門檻、簡化操作。同時,在安全性上,相比個人部署,企業級AI智能體在發布前往往要經過嚴格的測試和安全加固,內置了數據加密、訪問控制、審計日志等模塊,構建起一套完整的防御體系,不需要用戶自己成為安全專家。在使用上,這些產品已提前做好數據合規,能確保模型輸出符合法律法規和社會價值觀,規避潛在法律風險。當出現漏洞或攻擊時,廠商能迅速提供補丁;當涉及敏感數據時,至少能確保“數據不出域”。因此,除非是少數“極客”,對于只是想嘗試“AI養龍蝦”的大多數用戶而言,本土化產品更方便用戶將精力聚焦在體驗和創新上。
對社會監管而言,本土化生態則意味著數據安全與風險可控。缺乏管控的開源模型批量深入各行各業,容易形成規模化的安全黑箱,疊加各種場景,故障的復雜性會呈幾何級數上升。而本土頭部企業共建的生態,能為有效監管提供抓手。數據安全方面,本地數據本地存,能夠確保數據在境內閉環處理,符合國家關于數據主權的戰略要求;責任追溯方面,憑借完善的日志和審計功能,能夠對問題全鏈條追溯;應急響應方面,萬一智能體受到網絡攻擊、被控形成僵尸網絡時,廠商能夠通過威脅情報共享和應急響應等機制,第一時間封堵漏洞、阻斷攻擊。因此本土化是智能體產業發展的一道關鍵保險。
眼下,越來越多廠商正涌入“養龍蝦”的賽道。騰訊、智譜等AI頭部企業已紛紛下場,其他如LobsterAI、MasterAgent等本土開發的智能體也如雨后春筍般涌現。本輪AI“養龍蝦潮”既是一次技術紅利的大眾化釋放,也是一堂生動的全民安全教育課:在AI時代,“快”必須建立在“穩”的基礎之上。未來并不需要人人去做AI“架構師”,分工明確的生態模式更有效率——在官方的有效監管下,由具備雄厚技術實力和安全資質的頭部企業,提供好用、安全的本地化產品;而多數用戶和中小企業則應聚焦業務創新,在安全護欄內利用成熟工具創造價值,享受技術紅利。
我們可以看到,一個成熟的本土化生態,是化解“養龍蝦潮”野蠻生長負面影響,實現AI智能體行業可持續發展的最佳路徑。只有既為“發燒”降了溫,也為創新鋪了路,才能實現在安全中發展、在發展中規范的平衡。(作者是北京郵電大學人機交互與認知工程實驗室主任、教授)








