登录

被雷总“告到”中央的 AI 问题,有解决方案了,9月实行!

投稿人:丁丁 更新时间: 2025-03-17 18:04
被雷总“告到”中央的 AI 问题,有解决方案了,9月实行!

一边雷总把 AI 换脸、AI 拟声“告到”中央,另一边《人工智能生成合成内容表示办法》就在上周五悄悄发布了,规范 AI 生成内容,如今有法可循。

300+AI工具,3000+合成服务,AI 造假倒逼治理升级

都知道 AI 发展快,但显然已经超过了大多数人的想象力。

2025年3月14日,国家网信办等四部门联合发布《人工智能生成合成内容标识办法》(以下简称《办法》),直指AI技术滥用导致的虚假信息传播、身份冒充等新型风险。据披露,我国已备案生成式AI产品超300款,生成合成服务达3000余个,但技术滥用已引发社会信任危机。

此次政策通过“技术标准+管理制度”双轨模式,标志着我国AI治理进入“技管双强”新阶段。

显隐双标:用户都知情,监管可溯源

《办法》中最直接的解决方案就是,首创了显式标识和隐式标识双轨机制。

显式标识:要求AI生成内容以文字、声音、图形等方式明示身份,如视频水印、文本标注,确保用户“一眼识别”。

隐式标识:通过数字水印、元数据嵌入等技术手段,在文件底层添加内容属性、服务商信息等“隐形身份证”,为监管提供溯源依据。

两者结合,“里应外合”。让用户不上当,让监管好溯源。

平台注意:从被动审核到主动拦截

而发布内容的平台也在本次办法的规范范围内。首先,平台需要对上传的内容自动检测标识,未标识内容需添加显著提示。

在上传工具上,也需要提供标识工具,引导创作者主动声明内容是又 AI 生成。

最后呢,对申请无显式标识的用户,要对他的身份和使用记录至少保留 6 个月。

这样一来,平台就从出问题时候处理,变成了有问题源头防控,让技术滥用的成本大幅提升。

用户小心:滥用 AI生成内容,违法

《办法》也对用户(创作者)划定了红线,用AI 生成的内容必须主动标识,有了标识不能删除、伪造、隐匿。

一旦违规,就将依据《网络安全法》《深度合成管理规定》追责。

当 AI 可以以假乱真时,标识就是真与假之间的最后防线。

不只是中国,欧盟的《人工智能法》、美国的《编辑和深度伪造内容来源保护完整性法案》、英国《人工智能(监管)法案》等均对水印、标识义务有要求。

虽然从实现上来看,如何标识、怎么标识、怎么让用户看得懂标识;数字水印、元数据管理要如何规范与实现,要解决的问题还有很多。

但《人工智能生成合成内容表示办法》作为全球首个系统性 AI 内容标识规范,开创了“技术嵌入治理”的新范式。

9 月 1 日政策落地,到时,我们将迎来一场关于 AI 可信度的全民考验。

商家优惠券

更多