Copyright 2018-2024 集齐豆 版权所有 备2018023569号
人工智能生成合成内容标识政策法规宣讲活动”现场。
随着人工智能技术持续迭代发展,利用真假难辨的AI生成内容伪造恶搞、编造新闻、钓鱼诈骗等现象初步显现,AI 内容真假难辨的问题引发广泛关注。如何帮助公众识别AI生成内容?AI谣言怎么治理?
为深入贯彻落实国家互联网信息办公室联合多部门发布的《人工智能生成合成内容标识办法》(简称“标识办法”)及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(简称“标识方法”),促进人工智能健康发展,4月18日,“人工智能生成合成内容标识政策法规宣讲活动(广东站)”在广州举办。
本次宣讲会由中央网信办网络管理技术局、广东省委网信办指导,中国网络空间安全协会、广东省网络数据安全与个人信息保护协会主办,南方都市报、南都大数据研究院承办,广州市白云区政务服务和数据管理局,趣丸科技提供支持。参编专家现场详细解读,企业分享思路举措,助力人工智能生成合成内容标识机制的落地实施。同时,还多方共议生成式人工智能内容安全保障,为AI谣言治理建言献策。
来自省市相关主管部门、高校科研院所、人工智能企业、互联网平台等单位的100多位代表参加本次宣讲会。
新规解读
新规参编专家:技管联动推动AI内容标识落地落实
在人工智能生成合成内容标识政策法规宣讲活动上,专家指出,《标识办法》和《标识方法》通过标识机制提升内容透明度,帮助用户辨别虚假信息,并明确相关主体的责任义务,规范内容制作、传播环节的标识行为,与现有法规形成联动。通过管理规定与技术标准协同,确保政策可落地、可实施、可考核,形成安全治理与产业发展的良性平衡。未来还将不断完善标识技术体系,探索建立生成式人工智能治理长效机制,提高公众的人工智能素养与标识意识。
打出“管理+技术”组合拳 推动AI内容标识落地落实
近年来,随着人工智能技术持续迭代发展,生成式AI带来的新型风险挑战不容忽视。防范AI风险,促进产业良性发展迫在眉睫,帮助公众识别AI生成内容,减少虚假信息传播,增强公众对互联网传播内容的信任,厘清虚假内容生产传播责任链,成为网络信息内容生态治理的重要一环。
与此同时,我国人工智能安全治理体系正在不断完善。此前《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等相关规定已明确提出“标识”概念,并将既有的标识要求延伸至生成式人工智能的安全治理工作中。专家表示,此次《标识办法》的发布与施行,是对标识工作的“再明确”与“再细化”,推进相关规定的落地和落实。
目前,对AI生成合成内容进行标识已成为国际共识,而我国率先打出内容标识“管理+技术”组合拳,将标识工作推进至实践层面,为全球AI治理贡献中国智慧。专家指出,《标识办法》聚焦人工智能“生成合成内容标识”关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容制作、传播各环节标识行为,以合理成本提高安全性,促进人工智能在文本对话、内容制作、辅助设计等各应用场景加快落地,同时减轻人工智能生成合成技术滥用危害,防范利用人工智能技术制作传播虚假信息等风险行为,推动人工智能健康有序发展。
而《标识方法》作为《标识办法》的配套技术标准,明确了生成合成内容标识应当遵循的技术方法,为产业落地提供了参考依据。“‘技管结合’中的‘技术’”,首先体现在强制标准上。”专家介绍,与《标识办法》同步发布的《标识方法》作为首个人工智能领域强制性国家标准,具有一定法律属性,企业提供相关服务时需符合全部条款。通过管理规定与技术标准联动,确保政策可落地、可实施、可考核,形成协同治理合力,并通过持续不断提升技术水平,构建技术能力,实现管理要求与技术手段的有机结合,提升人工智能安全治理能力。