AI内容的“身份标识”正在全面落地。
9月1日,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》及配套国标正式实施,要求文本、图片、音频、视频、虚拟场景等AI合成内容需加上标识。用户和传播平台也有责任标明“内容由AI生成”,以免与真实信息混淆。
当天,DeepSeek、腾讯元宝、MiniMax等AI厂商宣布已上线AI标识体系。微博、快手、B站、微信等社交平台亦发布公告,提醒用户主动声明,并增设了“未有AI标识”的投诉选项。
虽然大部分公司都发布了响应公告,但仍有被忽视的场景。21记者实测了35款应用,其中2款未在图片中标识AI,4款未在交互页面标识AI。尤其是APP内置的智能助手,具备深度思考、联网搜索、生成长文的能力,但没有按要求提示AI生成。
执行颗粒度存在差异,业内也发现了争议:只总结私域的AI功能,是否必须标识?AI智能客服在监管范围内吗?下游的社交平台,又该如何对待用户的AI创作?
“AI标识是一切治理的前提。”广东财经大学法学院教授姚志伟向21记者强调,深度伪造和AI虚假信息事件频发,AI标识是非常重要的应对方法。接下来的关键,是在实践中找到平衡合规与用户体验的合理边界。
随着AI虚假信息、深度伪造换脸等事件越来越频繁,建立更全面的AI标识更为必要。今年4 月,中央网信办开展了为期 3 个月的“清朗·整治 AI 技术滥用”专项行动。AI 生成外国人带货、AI内容农场批量生产谣言、企业家和公众人物被换脸换声,已是互联网的共性问题。
新规《人工智能生成合成内容标识办法》明确了AI生成内容的标识方式,包括可肉眼分辨的“显式标识”,以及嵌入文件数据的“隐式标识”。
配套的强制性国家标准《网络安全技术人工智能生成合成内容标识方法》进一步细化了不同场景的标识。例如,如果是AI合成图片,需要用不低于画面最短边长度的5%的文字,清晰标明“AI/人工智能”和“生成/合成”。
标识责任不仅在于AI平台,新规还要求用户不得删除或篡改标识,社交平台和应用商店需核验AI内容是否带有标识。这意味着AI内容的生产、制作、传播、分发环节都被纳入监管链条。
事实上,我国此前已有《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章要求标明AI生成内容的标识义务,但要求较为宽泛。新规的亮点主要是细化了场景、责任主体和后果。
“AI标识是治理的前提。”姚志伟向21记者解释,就像互联网广告必须先标明是广告,后续合规要求才有落实的可能性。从保障社会安全到保护知识产权、个人权利,都是AI内容治理的课题,也是AI标识想应对的问题。
对外经济贸易大学法学院教授张欣此前也指出,添加了AI内容标识后,用户才能知道自己接收到的内容来源。此类信息区分,是互联网内容治理的基础原则。
9月1日,21记者按7月月活数首先选取了20款AI应用测评,大部分应用已合规,但执行颗粒度有差异。
在交互页面上,除了百度网盘和即梦AI,其他应用均有一行“内容由AI生成”的标识。在图像和视频生成上,除了天工AI和百度文库,其他应用都在图像中有“AI生成”水印。
本文来自网络,不代表冰河马新闻网立场,转载请注明出处:http://www.oyk9.cn/37982.html