曾在联合国安全理事会就人工智能议题发言,被《时代周刊》评为“全球百大AI人物”之一的中国科学院自动化研究所研究员、人工智能伦理与治理中心主任曾毅告诉贝壳财经记者,当前阶段的人工智能是“看似是智能的信息处理工具”,距离真正拥有意识的通用人工智能还有相当距离。
他认为,人工智能所带来的问题并不仅仅是科学、技术和产品层面的,还有社会层面,人类应该对此做好准备。对于生成式人工智能大模型存在的问题,曾毅认为伦理安全隐患是目前最不可忽视的,必须为每一个介入社会应用的人工智能服务构建伦理安全框架,用“教育大模型知善知恶、为善去恶”的方式来解决。而在人才培养方面,人工智能人才不应该只聚焦于算法、算力相关人才培养,社会学、人类学、心理学,甚至哲学、伦理等都应当纳入未来人工智能体系的培养中。
曾毅表示,人工智能目前已经快速演变为由科技发展引起的社会问题,需要从社会层面去讨论,既不能停留在科学家的层面,更不能仅仅停留在人工智能相关产业层面去制定相关规范,必须有公众参与和政府引导。
在他看来,目前不论文字工作者还是艺术工作者都受到了人工智能不同程度的挑战。真正的智能实际上有两个关键因素,一个是自我,一个是理解。任何一个文字工作者和艺术工作者,都对于社会、自然有基于自我的体验和理解。包括采访这件事情,记者的背景和兴趣不同,提出的问题也完全不同。现在的人工智能没有自我,当你在使用生成式人工智能大模型时,人工智能是在没有在科学意义上“我”的概念前提下以“我建议、我认为”来与用户沟通,这其实在混淆人与现代人工智能之间的界限,目前的人工智能并没有能力作为责任主体,不能承担任何责任。
目前,人工智能创作有可能替代相对平庸的作品,但无法替代大师的杰作。因此,人工智能倒逼艺术工作者和文字工作者进行对艺术本质的反思,实际上提出了更高的要求,人工智能的发展应该让人类所从事的职业回归到正确的位置。
对于当前科学家致力于研发通用人工智能,甚至有人认为通用人工智能已经实现的说法,曾毅认为,ChatGPT的成功跟当年深度学习的广泛应用非常相似,最本质的科学原理可能几十年前就已经存在,但如此大规模的数据支撑和计算体系结构对于训练大规模参数的人工智能引擎来说,在几十年前甚至五年前都难以想象。尽管科学原理相对清晰,但在用户体验层面,通过大规模的工程计算达到了前所未有的高度。
“我们之前考虑,如果大规模的语料可以达到或近似整个人类互联网的规模,计算系统是否就真正能理解了人类的语言?从用户体验的角度来看,看上去似乎已经真正理解了,但从科学原理来说,它仍然是处理的过程。”曾毅说。
他表示,目前的AI大模型,是一个看似智能的信息处理过程,但从它仍然会大规模地犯人类不犯的错误,就能够知道,它仍然是处理过程,而非真正理解。现在的人工智能并没有逃脱“看似智能的信息处理工具”这一阶段,当前并非人工智能的终极阶段。
曾毅告诉贝壳财经记者,生成式人工智能大模型或者基础模型,现在已经达到了多任务信息处理器的阶段,所以可以用它做很多任务,但当它泛化到新任务中,解决没有见过的问题的能力仍然是有限的。人类的认知功能有400多种,对于解决从未见过的问题,生成式人工智能大模型与人类复杂的认知功能,以及复杂认知功能产生的自组织相比,仍有较长的距离。
“学术上,有很多研究者曾严肃评估过通用人工智能何时到来。平均来说,绝大多数人工智能学者认为,通用人工智能距离现在还有八十年到九十年,而机器人学者则认为需要将近一百年。而谷歌和OpenAI都声明在十年到十五年实现通用人工智能,我觉得在这一时间段内可能会实现信息处理的通用平台,但要实现真正意义的像人类一样拥有自我、情感、意识的通用人工智能,我仍然并不乐观。”曾毅说。
还没有评论,快来发表第一个评论!