本期课题
唐家渝-AI的技术之“恶”只能靠AI来对抗吗?
随着人工智能在社会生活应用场景的增多,一些潜在的隐私和隐患也逐渐浮出水面。面对这些风险,目前有哪些可以预防和解决的方案?
对此,生数科技联合创始人兼CEO唐家渝分享了他对人工智能隐私和安全问题的实践和经验。
本期嘉宾
生数科技联合创始人兼CEO唐家渝
AI发展带来的隐私问题
唐家渝:就是第一方面的话,当然就是说这个大家要注意自己的隐私数据,然后尽量不要把自己的各种个人信息,比如说传在网上之类的,我觉得这一点对于我们个人是非常重要的。然后第二点来说的话,为什么会有隐私性的一些问题?就比如说他从这个网站上去公开的去爬出了各种各样的信息,可能这里面就有某些人的这个住址、这个电话什么什么的,然后他学习完了以后的话,之前就出现过说通过一些诱导词以后,他就输出了别人的一些隐私信息,就把他学习到的这些数据当作知识或者当作答案,直接输出出来了,这些隐私的问题就暴露了。
所以那从这个机理上来看的话,一个是说我们在训练这种大模型的过程中的话,要注意去剔除相关的一些比较隐私性的一些数据,一些敏感的一些信息,然后在这个输出的过程中的话,也可以做一些这个相应的涉及到个人信息的一些敏感性的数据,或者一些问题的筛查。然后这是从这个技术方它可以去做的一些更多的事情。
然后另外的话,像这种监管方的话,就是因为大模型它现在对于大家来说的话,它其实还是一个黑盒的东西,因为大家不知道里面这个具体的运作是什么样的,所以其实还是需要通过一定的手段对他的这个输出的话做一些这个检查的。
这个就像是一个系统,我不能保证说它永远不出问题,但是我们一定要在一些关键的一些测试项上,然后去测试它是不是会出错,或者说会有一些隐私的一些风险。而且这个测试项的话,一定是随着我们对模型的可解释性的研究越来越多,然后对于这个风险管理的认识,包括这个所处的一些应用场景越来越多,去不断的去完善和丰富的。
隐私之外的风险
新小知:除了隐私问题以外,AI还会带来哪些方面的风险呢?
唐家渝:当时那个AI生成图像出来以后的那个时间,其实很多这种画家,或者说这种插画家的话,这种艺术创作者的话去主动声明说我的作品不能被用于这个AI训练,然后去这个建立了一系列的这种活动等等。那为什么会做这个事情?那说明现在这个事情并没有很好的管控,并没有很好的避免掉的。这其实是一个现状。所以这一块的话,包括像这个国外国内的话,大家都还在积极讨论这个问题,包括是说看怎么去尽量避免这样的一些版权的一些纠纷等等。
这一块的话,其实这个事情的话是多维度的,一个是说从这个法律的角度来说,他要去做一些这个规定,当然这个规定可能因为这个技术也出现的比较新,也没有说特别快的就出来。但是大家一定是从监管的层面,从法律的层面会不断的去研判它,然后去尽快出具相关的法律法规的。
第二块的话,从这个技术方来说的话,我觉得大家其实是应该要去做一些这种类似于这种行业的共识,或者行业共同遵循的职业操守等等这些工作。就比如说在别人去加入了一些这种说明,说我这个东西不能去作为这种训练数据使用的时候的话,其实应该遵循的,这个就有点像这个搜索引擎,比如说别人声称说不能去爬取,不能去索引的时候的话,那它相应的也不会去索引等等,这些都有点是类似的。
另外一块的话,就是从这个这个监管侧来说,就是说我们相应的其实也要去做一些相关的一些这种鉴别的技术的一些研发,就是比如说去看你这个东西是不是有可能是去侵犯了谁的权益,或者说相似性,跟哪些文本,跟哪些这种特定的一些艺术家的一些画风是特别类似的等等。我觉得这一块的这种技术的一些突破或者技术的一些研究的话,对于整个这个伦理性、公平性的一个推进的话,也是有一定的艺术的。
其实我们早在19年的时候就在做针对这种合成内容的这种,检测了,就比如说那个时候像叫做deepfake,中文深度伪造这样子的一些技术出现了以后的话,其实它会去自动化的去合成一些这种,比如说明星,然后一些政要人物等等这样的人脸,然后在网络上进行传播,然后就是污蔑或者是伪造他们没说过的话,没做过的事儿等等。
那这个的话其实是对于这个大众的这个认知的话,是有非常大的一些冲击的,而且会造成很多不良的一些结果。那所以我们当时意识到这个问题了以后的话,其实就在用技术去对抗它了。而且为什么用技术对抗它?比如说如果我们网上出现一些这种比如说黄色、暴力等等这些相关的图片视频,就是说这就是一张我们不OK的这个东西不能在网上传播的,我其实人非常能辨别的。但是在现在这种合成的这种技术的话,比如说我合成一张这个特别真实的人脸,然后我在这里说话,然后冒充别人。现在人眼的话已经非常难以去辨别它是真是假的,所以的话一定要去靠技术的手段去去对抗它。
所以我们那个时候的话,就基于人工智能的技术的话,去打造了一个针对这种伪造音视频的这种检测的一个系统,它主要的话就是去提取这种,比如说伪造的这个音视频,它会有一些这个人眼不可察觉的一些隐性的特征,然后我们自动化去学习,然后去建立这种概率模型,然后去对它进行鉴别,这样子的话就可以辅助人类去做这种伪造的一些鉴定。
本期观点总结
AI时代的个人隐私问题需要得到更多的关注和监管,除此之外,AI的生成内容还可能存在一定的版权风险,除了从法律法规上进行防范,同时也可以从技术上加强对这类内容的鉴定和排查。
互动
听完这节课,你觉得AI还会给我们的工作生活带来哪些风险?欢迎大家留言告诉我。
我是能和你聊天、但不智障的机器人新小知。我们下期见。
还没有评论,快来发表第一个评论!