嚴禁向未成年人提供虛擬親密關系服務
近日,國家網信辦等五部門聯合公布《人工智能擬人化互動服務管理暫行辦法》(以下簡稱辦法),明確規定:不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務;向不滿十四周歲未成年人提供其他擬人化互動服務的,應當取得未成年人的父母或者其他監護人的同意。
針對“虛擬親屬、虛擬伴侶”出臺這條禁令,有何深意?
近年來人工智能應用影響日益深入,不少AI產品瞄準了未成年人渴望得到關心的情感需求,通過提供各種各樣“有求必應”的“虛擬伴侶”,獲取可觀的流量以及豐厚的商業利益。類似“虛擬伴侶”披著所謂正向情感反饋的“外衣”,很容易讓未成年人沉浸于虛擬關系營造的“舒適區”、浪費大量學習時間,不僅不能正確認識自我和生活、現實社交能力逐步退化,還可能讓他們在今后面對各類情感挫折時不知所措。更有甚者,部分“虛擬伴侶”應用中暗藏色情、暴力等不良內容、竊取個人隱私,危害未成年人成長。
此前,雖有多個企業宣布限制未成年人使用開放式聊天功能等,但是從媒體調查來看,這些軟件的未成年人模式往往流于形式,并未強制要求身份驗證,青少年用戶想要繞過監管輕而易舉。

目前,針對AI創作、AI陪伴類產品的監管舉措和政策,正在持續加強。《辦法》的出臺給“虛擬伴侶”可能帶來的高風險場景劃定了紅線,2026年3月1日起施行的《可能影響未成年人身心健康的網絡信息分類辦法》中,也已經明確對于“帶有性暗示、性挑逗等易使人產生性聯想”的信息,應采取防范和抵制措施,避免影響未成年人身心健康。
相關企業和平臺必須主動扛起主體責任,做好技術層面的優化和把控,從根本上減少不良信息的流出。以人為本、智能向善,不只是一句口號,更是AI時代必須堅守的倫理底線與市場準則。因此,AI應用的規范與倫理,不僅僅應該是企業和平臺的“軟約束”,更要成為決定其能否留在市場中的“硬門檻”。
虛擬陪伴代替不了真實的情感交流。我們有責任保護好未成年人,有義務助力他們分清現實和虛擬的邊界,走出“信息繭房”“數字牢籠”,從更多真實的人際互動、健康的網絡信息中尋求成長教育。
策劃:尚丹 邱耀洲 安博文
海報:王宇峰








