一边雷总把 AI 换脸、AI 拟声“告到”中央,另一边《人工智能生成合成内容表示办法》就在上周五悄悄发布了,规范 AI 生成内容,如今有法可循。
300+AI工具,3000+合成服务,AI 造假倒逼治理升级
都知道 AI 发展快,但显然已经超过了大多数人的想象力。
2025年3月14日,国家网信办等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《办法》),直指AI技术滥用导致的虚假信息传播、身份冒充等新型风险。据披露,我国已备案生成式AI产品超300款,生成合成服务达3000余个,但技术滥用已引发社会信任危机。
此次政策通过“技术标准+管理制度”双轨模式,标志着我国AI治理进入“技管双强”新阶段。
显隐双标:用户都知情,监管可溯源
《办法》中最直接的解决方案就是,首创了显式标识和隐式标识双轨机制。
显式标识:要求AI生成内容以文字、声音、图形等方式明示身份,如视频水印、文本标注,确保用户“一眼识别”。
隐式标识:通过数字水印、元数据嵌入等技术手段,在文件底层添加内容属性、服务商信息等“隐形身份证”,为监管提供溯源依据。
两者结合,“里应外合”。让用户不上当,让监管好溯源。
平台注意:从被动审核到主动拦截
而发布内容的平台也在本次办法的规范范围内。首先,平台需要对上传的内容自动检测标识,未标识内容需添加显著提示。
在上传工具上,也需要提供标识工具,引导创作者主动声明内容是又 AI 生成。
最后呢,对申请无显式标识的用户,要对他的身份和使用记录至少保留 6 个月。
这样一来,平台就从出问题时候处理,变成了有问题源头防控,让技术滥用的成本大幅提升。
用户小心:滥用 AI生成内容,违法
《办法》也对用户(创作者)划定了红线,用AI 生成的内容必须主动标识,有了标识不能删除、伪造、隐匿。
一旦违规,就将依据《网络安全法》《深度合成管理规定》追责。
当 AI 可以以假乱真时,标识就是真与假之间的最后防线。
不只是中国,欧盟的《人工智能法》、美国的《编辑和深度伪造内容来源保护完整性法案》、英国《人工智能(监管)法案》等均对水印、标识义务有要求。
虽然从实现上来看,如何标识、怎么标识、怎么让用户看得懂标识;数字水印、元数据管理要如何规范与实现,要解决的问题还有很多。
但《人工智能生成合成内容表示办法》作为全球首个系统性 AI 内容标识规范,开创了“技术嵌入治理”的新范式。
9 月 1 日政策落地,到时,我们将迎来一场关于 AI 可信度的全民考验。