充分发挥检察职能促推治理“涉未”深度伪造


   赵树坤

  2026年1月下旬,欧盟委员会启动对社交媒体平台X的正式调查,起因系该平台内置的人工智能聊天机器人“格罗克”被指控生成或协助传播非自愿性质的色情图像和深度伪造内容。相关内容甚至被认为可能涉及“儿童性虐待材料”。这一事件使得生成式人工智能带来的深度伪造风险再度成为公众焦点。

  在数字原住民与网络生态深度接触的当下,未成年人形象、声音更易被采集并重组。深度伪造技术已不再仅是个别“恶作剧”或灰色产业链的边缘应用,而是借助大模型工具的易得性与平台机制的传播力,呈现跨地域扩散、跨场景渗透并存的态势。这种技术异化不仅会侵害未成年人的人格权益,还可能转变为隔空猥亵、网络欺凌的新型手段。检察机关作为未成年人司法保护的重要力量,应注重在技术变迁中形成可操作的办案与监督方案。

  深度伪造侵害未成年人权益的主要样态

  恶搞拼接虚构侮辱信息,侵害未成年人名誉荣誉。深度伪造技术降低了视听资料篡改的门槛,使得网络欺凌呈现“技术化”与“可视化”特征。侵权人利用恶意拼接、换脸丑化等手段,制造“无中生有”的视听内容实施诽谤。相较于文字谣言,此类具象化的虚假信息具有更强的误导性,导致受害未成年人陷入“有图亦无真相”的举证困境。这种由虚实混同造成的污名化与同辈排斥,易对处于心理敏感期的未成年人造成精神伤害,甚至诱发极端事件。

  伪造涉性内容实施性剥削,侵犯未成年人人格尊严。部分不法分子通过深度伪造技术将真实未成年人的面部移植至淫秽视频、图像中,或利用算法对未成年人日常影像实施“一键脱衣”等性化处理。此类“基于图像的性虐待”实质是将未成年人置于色情语境,使其被物化为可供窥视、消费与剥削的性客体,不仅严重践踏未成年人的人格尊严,侵犯其肖像权与名誉权,还触犯了刑法关于制作、贩卖、传播淫秽物品罪及侮辱罪的相关规定。受害未成年人因此长期生活在隐私泄露与多次传播的恐惧之中,严重破坏未成年人的正常生活秩序与成长环境。

  非法处理生物识别信息,威胁未成年人信息权益。深度伪造的高度仿真依赖于面部、声音和指纹等生物识别信息。未成年人影像可能在短视频平台、智能终端应用或公共场景采集环节被持续收集,进而流入模型训练、数据标注乃至非法交易环节。未成年人风险防范意识薄弱,监护人监管存在滞后,导致相关数据处理活动中“知情同意”难以有效落实。生物识别信息泄露后较难通过更换标识实现风险阻断,且可能被反复用于模型训练,未成年人由此承受长期和可追踪的身份暴露风险。

  冒充身份实施诈骗,危及未成年人财产与人身安全。利用扩散模型与神经网络技术,不法分子能够对未成年人及其亲友的语音、外貌进行高仿真度的模拟与复刻,并通过在即时通信中制造紧急情境,引导未成年人转账付款或泄露家庭财务信息。更为严重的情形还包括利用实时语音与视频冒充诱导未成年人脱离监管环境,实施线下接触、胁迫或拐骗等犯罪,财产风险与人身风险交织叠加,危害后果呈现突发性与不可预测性,社会治理压力随之上升。

  治理“涉未”深度伪造的现实困境

  “低门槛生成”与“高门槛检测”并存,加大取证溯源难度。一方面,随着开源算法与移动端工具的普及,换脸、换声、生成视频等操作已从专业技能转化为“一键应用”,侵害行为的进入门槛下降。同时,生成模型在面部表情、口型同步、声线特征等细节上逼近真实,未成年人更易在同伴传播与情绪动员中被误导。另一方面,生成算法迭代速度快于检测技术更新。司法实践中,深度伪造的以假乱真特性对电子数据固定与审查判断造成冲击,且相关内容在传播中频繁经历压缩、转码与二次剪辑,原始数据与关键特征易被削弱,证据可采性与证明力评估更为复杂。涉案内容若存储于境外服务器或借助加密通信工具传播,跨境调取与取证协作成本进一步上升,证据链闭合难度随之加大。

  平台流量趋利性与社会共治短板叠加,加大未成年人受害风险。一方面,平台的流量分发机制对猎奇性、情绪化内容具有放大效应,其扩散速度往往快于平台的审核拦截与申诉响应速度。另一方面,受限于心智发展阶段,未成年人在遭遇“性勒索”或网络欺凌后,常因恐惧、羞耻而陷入不敢告知、不知取证、不善维权的困境。加之家庭、学校、平台与监管部门之间在信息共享、联动处置与专业支持方面仍存在衔接不畅、协同不足等问题,侵害后果呈现持续性与难以修复性。

  法律规制立法分散与主体界定模糊,影响司法救济实效。现行未成年人保护法、个人信息保护法、《未成年人网络保护条例》等法律法规已搭建起基础规制框架。但深度伪造侵权链条贯穿生成、发布、传播、再加工等多个环节,涉及模型开发者、技术服务提供者、内容平台与使用者等多类主体,责任结构复杂。现有规则对“涉未”场景下的更高注意义务、风险分级处置、快速下架时限、证据保全责任等缺乏可操作的细化标准,导致平台处置尺度不一、权利救济路径不畅。尤其在跨平台搬运、重复上传等情形下,未成年人及其监护人往往面临侵权主体难以锁定、损害后果难以评估、维权成本过高等困境,救济效果难以跟上损害扩散速度。

  应对深度伪造侵害未成年人权益的检察履职路径

  面对深度伪造技术带来的侵害未成年人权益风险,检察机关应当立足法律监督职能,坚持未成年人利益最大化原则,构建从末端惩治到源头治理的未成年人相关权益全方位司法保护体系。

  以刑事检察强化惩治追责。一是对于利用深度伪造技术制作、传播儿童色情物品,对未成年人实施诈骗、敲诈勒索和诽谤等犯罪行为,检察机关应依法追究刑事责任。对侵害未成年人犯罪从严追诉、从重提出量刑建议。二是对于技术链条长、隐蔽性强的疑难案件,应当依法介入引导侦查,围绕数据来源、模型训练、合成传播、资金结算等环节完善证据体系,推动电子数据固定与鉴定评估规范化,追溯组织者、技术提供者和获利者,实现全链条打击。三是畅通行刑衔接机制,与网信、公安等部门加强协作,建立违法线索双向移送机制,提升犯罪治理的及时性与确定性。

  以检察公益诉讼守护公共利益。最高人民检察院2025年11月印发的《人民检察院办理未成年人保护公益诉讼案件工作指引》,将“未成年人个人信息和网络保护”明确为六大重点关注领域之一。在具体实践层面,一是深化刑事追责与公益诉讼并行机制。通过提起检察公益诉讼,诉求行为人承担停止侵害、赔偿损失等民事责任,或督促相关行政机关依法履职,救济受损权益与修复社会关系并重。二是深化个案办理的规则引领作用。通过个案办理,将违法获取、处理人脸信息等源头风险纳入司法监督视野,进而推动行业标准的完善。

  以检察建议促推源头治理。一是完善审核机制与算法风险控制。针对办案中出现的平台标注缺位、账号实名与数据合规审查不足等问题,应当依法制发社会治理检察建议。督促落实《互联网信息服务深度合成管理规定》,建立针对未成年人面部特征的“强制拦截”与高等级风险识别机制,在模型训练阶段排除“涉未”敏感数据。二是落实生成内容标识与整改闭环。监督平台履行人工智能生成内容标识义务,添加不可消除的数字水印与提示,保障公众知情权。结合2026年3月1日即将生效的《可能影响未成年人身心健康的网络信息分类办法》,将“不当使用未成年人形象”纳入治理范围。同时,建立整改“回头看”与跟踪问效安排,推动将整改结果纳入平台合规评价体系与第三方评估范围,形成事前风险评估、事中监测拦截、事后追责修复的全流程防控闭环,从制度与技术层面压实主体责任,降低深度伪造对未成年人权益造成的持续性危害。

  [作者分别为西南政法大学人权研究院(人权学院)教授、博士研究生。本文系国家社科基金重大项目“习近平总书记关于尊重和保障人权的重要论述研究”(项目编号:22&ZD004)的阶段性研究成果]


评论列表 0

暂无评论