“降低人工智能带来的人类灭绝风险,应该与控制大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项。”5月30日,国际人工智能领域非营利组织“人工智能安全中心”发表《人工智能风险声明》,以简短字句强烈呼吁国际社会认真对待人工智能带来的风险。这是近期国际科技界对于人工智能风险的第二次警示,包括Open AI在内的三家领先的人工智能公司高管都参与签署声明。业界为什么会强烈呼吁关注人工智能带来的风险?人工智能真正的危险性是什么?
联合国教科文组织人工智能伦理实施高层专家组专家,本次公开信的联署者之一曾毅在《环球时报》撰文对此作出分析:
近期,由于人工智能风险与安全隐患引发的国际学者与产业专家两次发布声明,其目的都不是为了阻碍人工智能发展,而恰是在探索人工智能更加稳健发展的途径。大流行病、核战争与人工智能可能给人类生存带来潜在风险的共性是难以准确预见、波及范围广、关乎全人类的利益、甚至具广泛致命性。
关于人工智能对人类造成生存风险,有至少两种可能,一种是对远期人工智能的担忧,另一种是对近期人工智能的担忧。针对远期而言,当通用人工智能和超级智能到来时,由于其智力水平可能远超过人类,超级智能或会视人类如同蝼蚁,很多人据此认为超级智能将与人类争夺资源,甚至危及到人类的生存。 事实上,如从现在开始关注研究,远期人工智能的挑战及风险尚可应对。但若近处着眼,人工智能的挑战与风险则更为紧迫。由于当代人工智能只是看似智能的信息处理工具,没有真正的理解能力,其会以人类难以预期的方式,犯人类不会犯的错误。当其某种操作威胁到人类生存时,人工智能既不理解什么是人类,什么是生死,也不会理解什么是生存风险。如果此时的人类恰未能及时察觉到风险,则极可能出现“生存危机”。 也有观点认为,不需要达到通用人工智能与超级智能的阶段,当前阶段的人工智能就可以利用人类的弱点造成致命危机。例如利用和加剧人类之间的敌对和仇视、偏见和误解,以及应用致命性自主人工智能武器对人类生命构成威胁。如近期美国空军披露的先进无人机自主选择攻击其人类操作员。此外,人工智能具有被恶意利用、误用和滥用的风险,且几乎难以预期和控制。特别在近期,人工智能合成的虚假信息,极大降低了社会信任。网络通信又已使万物互联,会使相关风险在全球范畴下放大。 当前,人工智能技术发展竞赛如火如荼,对其安全伦理风险的防范却捉襟见肘。《人工智能风险声明》首先应引起共鸣的是所有研发者,应通过研制和发布人工智能安全解决方案,解决尽可能多的安全风险隐患。其次是最大限度地提升人工智能所涉及的利益相关方对人工智能安全隐患的意识,包括但不限于研发者、使用与部署者、政府与公众、媒体等,让人工智能的所有利益相关方都成为给人工智能稳健发展保驾护航的参与者。再次,对于人工智能给人类造成生存风险的各种可能,要开展充分研究,通过极限与压力测试,最大限度降低风险。 解决人工智能给人类带来的生存风险问题、伦理安全问题需要建立全球协作机制。例如,建立所有国家共同参与的人工智能全球安全委员会,在共享人工智能红利的同时,共护全球安全。这样才能有效利用人工智能赋能,确保其稳健发展。