这部法规为“大模型”亮起哪些“红灯”和“绿灯”|新京智库

这部法规为“大模型”亮起哪些“红灯”和“绿灯”|新京智库

00:00
05:57

全球首部AIGC管理办法出台了。

近日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》,该办法将自2023年8月15日起施行。

全球最早的生成式AI是去年11月上线,在中国则最早是今年3月份上线。而仅仅到了4月份,关于生成式人工智能服务管理的《征求意见稿》就出来了,现在才7月份,就正式颁布了,其速度之快堪比生成式AI的发展速度。

这些“红灯”规定值得关注

《办法》的内容丰富,其中,对生成式人工智能亮起了哪些“红灯”颇受关注。

除了“煽动颠覆国家政权”“暴力色情”等违法内容外,《办法》还在信息数据安全、知识产权保护、伦理风险规避等方面提出了较为严格的要求。

在信息数据安全方面,其实之前很多用户会担心使用生成式AI会泄露自己输入的个人信息,《办法》对这一点做出了明确的要求:生成式人工智能技术提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。提供者应当依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等的请求。

所以,对于用户来说,在《办法》的规范下,未来可以放心使用生成式人工智能。而对于技术提供者来说,应当依法承担网络信息内容生产者责任,履行网络信息安全义务,涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。

知识产权问题也是生成式AI领域关注度最高的问题之一。

《办法》明确生成式人工智能服务提供者应当使用具有合法来源的数据和基础模型,涉及知识产权的,不得侵害他人依法享有的知识产权;应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。而不管是提供者还是使用者,都要尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为。

也就是说,今后通过AI生成的内容,会有一定的标识,用户能够辨别自己的“AI作品”是否运用了别人产出的图片、视频等内容,避免滥用。这在很大程度上保护了知识产权。

除此之外,《办法》在伦理方面也有相应的要求:在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。

在这一规范下,其实各个生成式AI提供方的技术水准也将受到检验。比如当用户问到相关伦理问题,它是为了避免风险简单粗暴地回复:我无法回答、我不知道;还是会答非所问,或者是会被使用者所迷惑,答出了不符合伦理道德的答案;抑或,能够提供既符合伦理要求又言之有理的答案……这体现出的是不同层次的AIGC能力。

在未成年人保护方面,《办法》也提出了要求:生成式人工智能服务提供者应当采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。

这些“绿灯”指引令人鼓舞

当然,《办法》里并不都是严格的限制,还有一些温和的举措以及提倡和鼓励的方向。

当前,生成式AI的一个非常突出的特点就是所谓“一本正经的胡说八道”,这目前是全球都无法解决的难题,在能够看到的有限未来都很难解决。之前,征求意见稿要求生成式AI生成的内容应当真实准确,而《办法》则更新为,提高生成内容的准确性和可靠性。

再比如《办法》强调“虚假有害信息”,而不是《征求意见稿》一刀切的“虚假信息”。“虚假有害信息”和“虚假信息”相比,虽然只多了两个字,但二者却有天壤之别。这些都使得《办法》比《征求意见稿》温和了一些,可操作性强了一些。

和《征求意见稿》相比,《办法》也新增加了不少对于生成式AI服务的相关鼓励。

例如,在第二章技术发展与治理的第五条与第六条,都提到了要鼓励生成式AI技术在各行业、各领域的创新应用,探索优化应用场景,构建应用生态体系。

这一点令人鼓舞。因为这些领域和方向是我们国家生成式AI的未来。互联网和AI的发展历史证明,我们在应用层,尤其是在千行百业的应用,是最大的优势所在。尤其对于广大的创业公司来说,生成式AI在千行百业的应用,是广阔天地,大有可为。

《生成式人工智能服务管理暂行办法》作为首部AIGC管理法规, 将使得生成式人工智能健康发展、防范生成式人工智能服务风险迈入全新阶段。

有理由相信,在维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益的前提下,我国生成式人工智能会迎来蓬勃发展。

以上内容来自专辑
用户评论
  • Hypocrisy_dt

    根本就没有隐私,只是人家知道不说而已

  • ClownCasey

    1

  • 听友467331926

    插个嘴sk