大家好,欢迎来到远川投学苑,我是王佳悦,也是胖猫,今天我和大家来聊一下一个医药研究员对于AI的看法。
哥德尔不完备性定理
哥德尔
在20年前的大学时期,我曾经写过一篇关于AI的论文,大概的内容是关于哥德尔不完备性定理和强人工智能的关系。
关于强人工智能,大家应该都比较了解了,但对于哥德尔不完备性定理可能不太了解。哥德尔不完备性定理的内涵很复杂,简单概括,就是任何包含了自然数论的形式体系中,自洽性和完备性必定无法同时满足。
哥德尔不完备性定理,被视为理论计算机科学和人工智能理论的基础,展示了定理证明、计算、人工智能、逻辑和数学本身的基础局限性,在学术界引起了轰动。这一研究对 20 世纪科学和哲学发展产生了巨大影响。
在哥德尔的基础上,图灵提出了“图灵机”和“图灵检验”。
图灵测试
1950年,伟大的图灵提出一个关于判断机器是否能够思考的著名试验,也就是图灵测试,核心思路是如果一个代号是C的自然人使用测试对象皆理解的语言去询问两个他不能看见的对象任意一串问题,其中一个对象为正常思维的人,代号B,另一个是机器,代号A。如果经过若干询问以后,C不能得出实质的区别来分辨A与B的不同,则此机器A通过图灵测试,可以叫机器人A。
这似乎很简单,然而其背后所蕴含的思想极为深刻,激起了来自哲学、数学、计算机科学、认知和神经心理学等多个不同领域学者的广泛讨论,虽然还存在争议,但已经成为人工智能不可或缺的判定标准。
有一派意见认为计算机系统本身是一个符号化的形式系统,既然如此,那就也得遵从哥德尔不完备性定理,在其内部必然存在不能被证明或证伪的命题,由此得出结论是计算机系统逻辑能力是有限的,不能认定是智能的。简单来说,就是计算机没办法和“悖论”和解,所以很难具备和人一样的智能。
但图灵本人却认为人类思维也一样存在局限性,因为人类所建立的形式系统也是不完全的,所以人类逻辑思维并不比一定比计算机优越。完成一件事可以有不同的方式,人类有人类的方式,计算机有计算机的方式,就像人可以游泳,但是不必像鱼一样有尾巴,计算机和人类可以不同的方式实现智能,计算机智能以人类思维作为参照,但不一定必须作为模板。
涌现之力
正如图灵所料,AI在近年来飞速发展,并形成了两大类技术路线,第一类是基于模型的运算能力(如知识图谱,就是依靠计算机运算能力),如深蓝,第二类是基于神经网络模型的训练(如深度学习,模拟人类思维方式),如阿法狗。第一类它们的工作原理都有严格的数学定义,所以是可解释的。第二类通过确定一个人工神经模型,然后通过训练,得到一个参数被调节好的神经网络。训练法是目前的主流,但是人们目前还只知道其基本逻辑,但是内部是如何相互影响的并不清楚,它的工作原理目前尚未得到严格的数学定义,因而不具有可解释性(毕竟模拟的是人脑,人脑是如何运作的目前也不十分清楚)。类似于古代中国工匠知道黑火药的制备方法,但是无法解释其中的化学原理。
再回到ChatGPT本身,ChatGPT虽然也需要强大的分布式算力资源,但是核心还是基于神经元模型的训练,研究人员使用梯度速降等算法来训练拥有1500亿个参数人工神经网络,但是对于其中的细节其实并不掌握。在公开访谈中,OpenAI公司CEO萨姆·阿尔特曼也坦言这一点,ChatGPT为何会出现归纳推理能力,研究者自己搞不明白。他们只知道,在不断测试和训练中,人类突然发现,ChatGPT开始出现了归纳推理能力。
AI医疗的特殊性
上面讲了这么多的哥德尔,一方面是到了最后一节课,秀一下我的知识储备,另一方面,也在于涌现对于AI医疗的重要意义。
可解释性
简单来说,在我们可见的将来里,人类不接受AI医疗的涌现,无论是FDA还是NMPA,对于AI医疗的可解释性都提出了很高的要求。
可解释性本质要从深度学习理论的角度来提供,其实不存在针对某个特定应用的(深度网络的)可解释性。我们只能说某个工具的工作原理上是可解释的,但是要求其具体工作流程的可解释性有时候不一定可行。或者说,面向问题的算法处理流程的可解释性和构造这个算法的过程的可解释性是两回事。
具体来说,针对医学影像AI问题,所谓的可解释性,说白了就是要求其工作流程和人类对医学问题的认知一致,或者其工作流程可以被人类所理解。但是,由于完成目标任务的途径本质上有无穷多条,这些途径都可以完成任务,所以我们不可能要求这里的任意一条途径都满足人类的理解模式。除非你真的找到一条符合人类认知特征的途径,但是这不等于说不符合人类认知特征的途径就不可用。
目前来看,医学领域的可解释性实际上是要求看到因果关系的,但是目前深度网络和深度学习在挖掘因果性方面其实是个弱项,所以即使网络真的构造了一条看起来符合人类认知的逻辑链路,更大可能上也是通过人为的网络结构设计获得的,而不是机器学习本身发掘了这个因果性。
所以,在这个阶段寻求可解释性,实质上是在追求人类对网络结构设计如何与医学问题自身的逻辑匹配,这本质上还是在考验人类自己如何理解这个医学问题,极少可能出现人类在对相应的医学问题没有足够了解的前提下通过网络训练发现一个以前未知的逻辑链条,就算有所发现,其实应该也是相关性而非因果性,还需要人类去进一步验证相关性的存在。所以,这个意义上的可解释性其实像一个循环论证,从人类自己对问题的理解出发设计网络,构造一个与人类已知认知匹配的网络工作流程。
好了,这一节课的内容就到这里,下节课我们再见。
哥德尔不完备性定理,被视为理论计算机科学和人工智能理论的基础。
在哥德尔的基础上,图灵提出了“图灵机”和“图灵检验”。
图灵认为人类思维也一样存在局限性,因为人类所建立的形式系统也是不完全的,所以人类逻辑思维并不比一定比计算机优越。
AI在近年来飞速发展,并形成了两大类技术路线,第一类是基于模型的运算能力,如深蓝,第二类是基于神经网络模型的训练,如阿法狗。
针对医学影像AI问题,所谓的可解释性,说白了就是要求其工作流程和人类对医学问题的认知一致,或者其工作流程可以被人类所理解。
还没有评论,快来发表第一个评论!