给AI分身“上枷锁”,为直播经济“守底线”


(来源:中华工商时报)

转自:中华工商时报

    近日,演员温峥嵘凌晨收工后在手机上刷到自己的“分身”在直播间带货,质问“你是温峥嵘我是谁”反被拉黑的荒诞场景,戳穿了AI时代直播行业的黑色寓言。这背后是盗播素材经AI合成并重塑的黑色产业链——6000元即可定制的服务、规避审核的镜像翻转技术、多账号多平台的运作模式,侵权成本如此之低,而维权却难上加难。

    “温峥嵘”被分身也绝非个例:央视知名主持人李梓萌曾被AI“分身”直播带货、全红婵的声音也曾被复制卖土鸡蛋、知名学者演讲视频遭AI改头换面用来推荐图书……消费者基于对公众人物的信任下单却买到劣质商品,而公众人物也因被利用而无端背负了风险,最终造成了“平台审核缺位、商家赚快钱、受害者买单”的畸形生态。当技术能轻易伪造真实,直播电商赖以生存的“信任”基石正被侵蚀。

    当前,对AI技术滥用的监管体系已从被动应对转向主动防控。在国家层面,《生成式人工智能服务管理暂行办法》与《人工智能生成合成内容标识办法》构筑起“标识可溯、侵权必究”的制度底线,要求视频标注“AI生成”、音频嵌入数字水印;在地方层面,浙江出台了《浙江省网络直播营销行为规范指引》,全面回应AI时代到来后直播营销中须规范的问题,避免深度伪造技术、数字人技术无序滥用。北京将李梓萌AI代言案纳入广告法监管,开出行业首张重磅罚单。此外,2025年“清朗”专项行动自4月启动以来,第一阶段累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个,形成了一定程度的监管震慑。

    尽管防控制度取得了一些成效,但从根本上解决AI滥用问题仍面临三重障碍:其一,技术规避方式层出不穷,致使监管规则“计划赶不上变化”。盗播者用画中画遮挡标识、借虚拟定位绕过封禁,平台AI识别系统常陷入“被动防御”;其二,责任界定还存在模糊地带。当AI合成内容跨平台传播,平台间数据壁垒导致了侵权链条难以追溯,而“技术提供方-商家-平台”的责任划分尚无明确标准;其三,消费者维权成本过高。以演员温峥嵘“被分身”为例,其团队发律师函、粉丝日均举报18个账号仍难以遏制,对于普通创作者而言,维权成本更高,更易陷入“维权不如放弃”的困境。

    AI分身直播乱象,反映出平台治理能力跟不上技术创新速度的失衡现象,而解决失衡需从技术、制度与伦理三方面协同架构防线,构建起“技术风控+制度刚性+行业自律”的三维治理体系。

    技术层面需建立“溯源+拦截”双重屏障。平台应强制接入并实时升级AI内容识别系统,对数字人直播实行“实名备案+动态监测”,将未按要求标识的内容直接拦截。开发公众可查询的溯源工具,通过数字水印让用户一键验证内容真实性,从消费端切断虚假流量的生存空间。

    制度层面要实现全链条责任闭环。应细化广告法、知识产权法在AI场景的适用规则,明确“名人AI分身需书面授权、逝者形象需亲属同意”的刚性底线。可借鉴北京网信办开设AI技术滥用治理举报渠道,形成“用户标记-平台核查-联合处置”工作机制,打通市场监管、网信、公安的数据壁垒,对侵权账号不仅封号,更要追溯资金流向、追究刑事责任。

    行业层面需培育“科技向善”的自律生态。直播平台应建立“AI滥用黑名单”,设立侵权黑名单共享平台,将多次侵权的商家与MCN机构纳入信用惩戒,限制其参与直播经济。商家可采用第三方审计以确保全程合规,或将合规审查前置到营销创意阶段,从源头开启合规审查。此外,可通过行业商协会制定《数字人直播伦理公约》,明确技术应用的边界,避免无良商家“流量至上”压垮商业伦理。

    当AI技术能无限复制“真实”的时候,我们更需守护真实的价值。唯有用权责清晰的治理体系,让技术创新走在合法合规的轨道上,重建直播行业的信任基石,才能真正实现让AI技术为经济社会发展赋能。


评论列表 0

暂无评论