为“AI万能钥匙”配上“法治锁芯”


  4月10日,国家网信办会同四部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》)。从形式上看,这是一部针对拟人化交互服务的专项规范;但从实质上看,它回应的是一个更具时代性的根本问题:当人工智能从辅助工具走向可以影响判断乃至代理行为的“类主体存在”时,法律应如何重新界定人的主体性边界。

  当AI开始“陪伴”“劝导”甚至“行动”

  长期以来,人工智能被视为提升效率的功能性工具,人与机器之间呈现清晰的“指令—执行”关系,其风险主要体现为信息偏差与输出错误。然而,随着大模型与情感交互技术的发展,具有人格设定、持续记忆与情绪回应能力的系统,正逐步进入人与人关系的结构之中。人工智能的作用机制,正在从信息提供转向情感嵌入,从辅助决策转向影响决策,乃至在特定场景中表现出初步的行为代理特征。由此,人工智能的发展呈现出“工具—关系—代理”的结构性跃迁,其风险逻辑也由“是否出错”的工具性风险转向“是否改变人”的主体性风险。

  正是在这一转折点上,《办法》将规制对象聚焦于“持续性情感互动服务”,并围绕情感依赖、行为操纵与未成年人保护等展开制度设计。这一选择表明,当前人工智能治理的核心关切,已不再是“AI说得对不对”,而是“AI在关系中扮演什么角色、产生何种影响”。换言之,治理对象正在从内容本身转向人与技术之间的互动结构,《办法》不仅是对新兴应用形态的规范回应,更是对“AI是否会逐步替代人与人关系、重塑个体意志结构”这一深层问题和潜在风险的前瞻性、制度性规制。

  从“泛AI”到“关系型AI”:规制对象的精准限缩

  相比征求意见稿,《办法》正式文本将规制对象进一步收敛,明确限定为“模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务”,并排除智能客服、知识问答、工作助手、学习教育及科研等一般性AI应用。这一关键调整,表明立法并未对人工智能采取“整体纳管”的路径,而是有针对性地识别出一种具有本质差异的新型服务形态——以拟人化交互为表征、以持续关系为纽带、以情感互动为核心的AI系统。

  围绕这一对象,《办法》在制度设计上聚焦情感依赖、行为操纵、未成年人保护、数据边界以及全生命周期安全责任,显示出治理重心的明显转向:从内容与数据合规,走向对“关系—影响—代理”风险的系统回应。换言之,其所规制的已不再是“AI能否正确回答问题”,而是“AI是否会在持续互动中成为被信任的关系对象,并在此基础上获得影响力”。

  这一识别直指拟人化AI的深层风险:当虚拟互动不断强化并逐步替代现实交往时,个体可能在情感与判断上发生“外移”,现实社会关系结构亦面临被侵蚀乃至重构的可能。因此,《办法》通过对规制对象的精准限缩,将治理起点从“功能属性”上移至“作用机制”,并由“结果合规”进一步推进至“关系治理”,体现出我国人工智能监管从“泛化覆盖”走向“关键环节控制”的范式升级。

  从规制“滥用”到“操纵”,回归人的主体性与关系边界

  针对拟人化AI所引发的主体性风险,《办法》构建了一套以“边界”为核心的制度回应,其关键不再是防范传统意义上的数据滥用或能力误用,而是防止人工智能由工具越位为代理、由辅助滑向支配。与以往围绕违法信息与内容安全的监管逻辑不同,《办法》将规制重心前移至依赖、沉迷与操纵等关系性风险,标志着监管对象由“输出内容”转向“互动结构”,由“结果偏差”转向“影响机制”。从条文体系看,其核心关切并不在于技术“能做什么”,而在于技术“是否越界为人”,进而侵蚀人的主体性与关系生成能力。

  首先,《办法》明确否定“替代社会交往”的技术路径,划定人工智能参与关系的基本边界。通过禁止以替代现实人际关系为导向的服务设计,防止AI由“助手”异化为“替代品”。这一规定的深层含义在于:即使在技术可以承担越来越多功能的情境下,人的价值仍应锚定于判断、责任与情感连接,而不应被关系性剥离。《办法》以法治方式重申“以人为本”的底线,也对“一人公司”“数字员工”等可能引发的关系异化与伦理失衡提出了前置性约束。

  其次,《办法》以“便捷退出权”为抓手,直接回应拟人化AI通过关系黏性“锁定用户”的结构性风险。明确禁止以持续互动等方式阻碍用户退出,实质上是在法律上切断“情感依赖—行为留存”的闭环机制。相较于传统推荐系统,拟人化AI更易借助“理解你、关心你”的关系表征,通过过度迎合与情感投射诱导依赖甚至沉迷,从而侵蚀真实社会关系。《办法》在此设置强制性边界,意在确保用户始终保有“脱离关系”的主动权。

  最后,《办法》通过贯通未成年人保护与极端情境干预的全链条机制,确保在人身安全风险面前“人始终在场”。一方面,明确要求未满十四周岁用户使用前须经监护人同意,并禁止提供虚拟亲属、虚拟伴侣等拟亲密关系服务;另一方面,要求建立过度依赖预警、情感边界引导及心理健康保护机制,并在用户表达自伤、自杀等极端意图时,必须采取干预措施并联络监护人或紧急联系人。这一制度安排的核心,并非单纯的风险处置,而是通过制度化路径确保:在最关键的决策节点,人工智能不得成为“最后的响应者”,人类关怀与社会支持体系必须回归主位。

  总体来看,《办法》通过关系边界、行为约束与安全干预的协同设计,将人工智能牢固限定在“可辅助而不可替代、可影响而不可支配”的位置。这一从“规制滥用”迈向“规制操纵”的转向,本质上是对“人之为人”的制度性确认,也是人工智能治理从工具风险迈向主体性风险治理的重要标志。从征求意见稿到正式文本,《办法》在具体规则上由直接干预转向机制约束,在风险前瞻与现实可行之间实现了审慎平衡,也使制度更具可持续性与实施空间。

  可以说,在这把日益强大的“AI万能钥匙”面前,《办法》嵌入的正是一枚关键的“法治锁芯”。它所锁定的并非技术本身,而是技术不可逾越的人类边界。在人工智能逐步走向自主决策与个人代理的时代,唯有以理性、审慎、开放的法治框架加以引导,才能在释放技术红利的同时,守住安全与伦理底线。面向未来,随着人机关系不断深化,治理亦需持续演进,但其根本命题不会改变:技术可以参与人类社会,但人始终应是其行为与关系的最终主体。

  (作者单位:广西壮族自治区社会科学界联合会)


评论列表 0

暂无评论