近日,马斯克与OpenAI的法律“纠葛”,让人工智能技术再次处于风暴中心。
本周,一份由美国国务院委托撰写发布的报告再次引发大量关注。该报告称,美国政府必须“迅速而果断”地采取行动,避免人工智能带来的重大国家安全风险,在最坏的情况下,人工智能可能会对“人类物种造成灭绝级别的威胁”。
AI武器化及失控风险巨大
堪比“核武器”
2022年10月,也就是ChatGPT轰动亮相的一个月前,美国国务院委托第三方机构格拉德斯通人工智能公司,“对武器化和错位人工智能的扩散和安全风险”进行首次评估。
经过一年多的调研,与200多名网络安全研究人员、大规模杀伤性武器专家、政府内部的国家安全官员政府雇员,以及OpenAI、谷歌DeepMind等领先AI公司的工作人员进行交谈后,格拉德斯通于今年2月26日向美国国务院提交了一份长达247页的评估报告,并在本周发布了最终版报告。
据报道,这份题为《提高先进人工智能安全性的行动计划》报告描绘了“令人担忧”的前景。格拉德斯通在其中直截了当地指出,快速发展的人工智能对国家安全构成了“灾难性”风险。在最坏的情况下,最先进的人工智能系统可能“对人类构成灭绝级别的威胁”。报告同时警告称,美国政府能避免灾难发生的时间已经不多了。
报告称,当今领先的人工智能发展对国家安全构成了紧迫且日益增长的风险,并着重指出了两大风险。
首先,最先进的AI系统可能被用作武器,造成潜在的、不可逆转的破坏。报告指出,人工智能和通用人工智能的崛起,可能在某种程度上破坏全球安全,“让人联想到核武器的引入”,在AI方面存在着“军备竞赛”、冲突和“与大规模杀伤性武器相当的致命事故”的风险。
值得注意的是,AGI目前仍是一种假想的技术,它可以执行大多数任务,达到或超过人类的水平。尽管这样的系统目前尚未诞生,但领先的人工智能实验室正在进行研究。业界预计,AGI将在未来五年或更短的时间内出现。
其次,该报告称,AI实验室的安全性也存在隐患。实验室没有足够的控制措施,来防止通用人工智能系统“失去控制”,其后果可能对全球安全造成“潜在的毁灭性后果”。
降低AI带来的灭绝风险
应是全球的优先事项
“人工智能已经是一项经济上具有变革性的技术。它可以帮助我们治愈疾病,进行科学发现,并克服我们曾认为不可逾越的挑战,”格拉德斯通人工智能公司的首席执行官兼联合创始人杰里米·哈里斯本周二表示,“但它也可能带来严重的风险,包括灾难性的风险,这是我们需要注意的。”
报告中呼吁采取重大的新措施来应对这一威胁,包括成立一个新的人工智能机构,实施“紧急”监管保障措施,并限制用于训练人工智能模型的计算机能力。报告中写道:“美国政府显然迫切需要进行干预。”一名美国国务院官员证实了这份报告的真实性,但强调道,该报告并不代表美国政府的观点。
哈里斯还表示,越来越多的证据,包括在世界顶级AI会议上发表的实证研究和分析表明,“超过一定的能力阈值,AI可能会变得无法控制。”
去年,被称为“人工智能教父”的杰弗里·辛顿宣布从谷歌离职,并对AI带来的风险发出警告。他坦言,对毕生所研究的东西感到后悔了。
辛顿曾表示,人工智能在未来30年内导致人类灭绝的可能性为10%。去年6月,辛顿和其他数十位人工智能行业领袖、学者和其他人签署了一份声明,称“降低人工智能带来的灭绝风险应该是全球的优先事项”。
与此同时,尽管在人工智能领域投入了数十亿美元,但全球各大企业也开始越来越担心这项技术蕴含的危险。去年,在耶鲁大学CEO峰会上接受调查的CEO中,42%的人表示,人工智能有可能在5到10年后摧毁人类。
还没有评论,快来发表第一个评论!