2019中国人工智能大会女科学家论坛在胶州喜来登酒店举行,清华大学计算机系教授史元春教授,西北工业大学教授张艳宁,浙江大学教授孔祥维,复旦大学教授王国豫,中科院科技战略资讯研究院研究员李真真,中科院生物物理所研究员刘宁,出席本次论坛并发表演讲。
该分论坛以“人工智能伦理与安全”为主题,六位专家学者从不同的角度就AI的伦理以及安全问题提出了自己的观点。
那么什么是人工智能伦理?复旦大学教授王国豫给出了我们答案,王国豫教授指出,我们都知道说谎不对,但当这个谎言是一个善意的谎言时,我们就要进行伦理辩护。所以人工智能的伦理学也是如此,人工智能可以给人类带来福祉,但是另外一个方面,人工智能发展的过程当中又会带来一些歧视,在这两种不同的道德的冲突下,人工智能伦理问题便会产生。
人工智能虽然给人类带来了福祉,但是人工智能也存在许多问题和挑战。浙江大学教授孔祥维指出,人工智能本身会产生一些安全问题。图片、视频、音频都可以通过AI技术来伪造,有些人还会使用人工智能技术制造假新闻或用来从事违法犯罪行为。
浙江大学教授孔祥维说:
“我们再看一下音频也有伪造的,大家知道一个例子,我是你老板,你要给我打钱,这是人工智能模仿一个老板的口音骗另外一个子公司,当时骗了22万欧元,所以这个音频都可以,下面是一个语音和假新闻,就是谷歌的语音助手通过了图灵测试,找它当客服的时候,你说完了之后,对方是一个机器人,但是你不知道,你听不出来,还有人工智能催生了很多新的假新闻、假消息,成功的骗过了Facebook机器,现在人工智能审一次,人再审一次,要达到这种方式。”
孔祥维教授还指出,除了人工智能本身存在的问题,人工智能在应用方面也存在很大的风险。孔教授将其总结为三个方面:国家安全的风险、军事安全的风险、社会安全的风险。例如,在国家安全方面,机器人可以操纵民意变成新的政治风险,甚至可能颠覆整个国家。在军事方面,人工智能很多的地方可以进行恐怖的再利用。在社会安全方面,在假场景中虚造的音视频可能会引发社会危机和金融经济的振荡。
面对这些问题人工智能伦理问题,我们应该采取什么措施来解决?清华大学史元春教授认为AI伦理与安全需要开发者、维护者,以及整个社会共同来维护。
中科院科技战略资讯研究院研究员李真真和复旦大学教授王国豫提出,人工智能的治理问题主要有两种解决路径,一个是外在的路径,一个是内在的路径。
外在路径主要是通过构建一个人工智能研究与开放的原则与规范体系来做,比如各种各样的规则,中国、联合国、OECD、欧盟均有提出可信赖的人工智能的伦理准则。
内在路径就是将人类的伦理规范嵌到人工智能技术体系中,这里我们面临最大的挑战实际上就是智能机器道德编码的问题。
复旦大学教授王国豫说:
“人类有非常大的价值,但是价值本身又是互相冲突的,根据什么嵌入什么价值呢?谁来决定呢?是工程师还是领导决策者还是公众呢?我们根据什么来选择呢?我们知道德国工程师协会在3780号条例讲,在欧盟内部有八大原则,我们讲的人类追求的八大价值,而这个价值要个性发展,又要环境,还要共同富裕,这些有很多都是彼此冲突的。
在认识论上还有非常大的误区,把工程师看成英雄,工程师必须承受人工智能系统道德化之重,工程师其实是很难做到的,而且认为道德是可以物化的,还有就是人工智能系统必须是可结实的、可还原、可控的。张博士讲的不可解释,怎么来设计呢?而且必须是透明规则的。
所以因为这个是源于技术本身的一个特征,我们知道技术有一个潜在的可能性的一面,又有现实的可能性,我们有的时候可以看到现实的可能性,但是有一些潜在的可能性是看不到的,另外整个的不光是AI系统,还有很多的技术系统都存在一个不确定性和非线性的关系。
另外还有非常重要的,人工智能更加明显,人工智能系统是和经济的系统、政治的系统、文化的系统交织在一起的,具有一个多维度的语境,而我们仅仅考察了技术的语境显然是不够的。
所以我们讲技术有一个不确定性,有些不确定性是来自于外部的,是属于比如说我们认识论的不确定性,我们认识论的偏差,还有技术本身内部还有不确定性。”
因此王国豫教授提出一个人工智能治理的第三条道路,人工智能不是一个单一的技术,它会涉及到不同的系统。因此必须强调不同应用的场景,在设计人工智能的过程要考虑到人工智能系统和它的应用系统之间的联系,要考虑人和机器、场景的关系,还要考虑到不同的环境。
女科学家的加入为2019人工智能大会增添了别样的色彩,她们不仅为我们带来了人工智能领域发展的最新研究成果,还从伦理学、心理学、生物学等不同角度为我们解读了人工智能伦理安全问题,为人工智能提供了发展的新思路。
还没有评论,快来发表第一个评论!