本讲精华内容
今天这期节目是一期特刊,我们来聊人工智能AI。人工智能这个话题在2016年的时候因为AlphaGo成为热点,一直热了一年多,到今年其实已经凉凉了。但是最近这段时间发生了两件事,又把它给拉回到我们的视线里,所以咱们就趁这个机会说一说AI。
发生了哪两件事呢?
首先是几周前Google演示了它们最新的手机助手应用,在他们的演示视频里,这个基于AI的手机助手已经可以用语音帮主人打电话啦,并且从说的内容到语气几乎都已经以假乱真,这把大家给惊着了。
第二件事,当然就是罗永浩的锤子科技发布了一台号称能革掉现在电脑的命的TNT工作站。TNT就是Touch and Talk,“手按住然后说”。罗永浩之所以搞出这么个东西,他的出发点就是现在的AI水平,尤其是基于AI的语音识别其实是非常弱智的,如果你直接用语音跟AI下命令,那它往往错误百出,所以必须得先按住一个目标然后说话,通过锁定目标大大减小AI的计算难度。
当然,这两件事传达出来的信息是相反的,一件是说人工智能还很弱智,而另一件让我们看到AI的智能水平正在快速进化。
那我想借着这波新闻讲点什么呢?我想讲一讲实现人工智能的两种思路。
这两种思路的区分并不是一种专业上的说法,而是我自己看了一些资料之后的归纳。我当然不是人工智能的专家,所以肯定也没法跟大家讲技术细节,我想讲的其实是人工智能大框架上的、很基础的一些东西,我想大家也会对这些东西更感兴趣。
那么AI有哪两种实现的思路呢?我把它们分别叫做:「效果模拟思路」和「机制模拟思路」。
「效果模拟思路」
先来说「效果模拟思路」。所谓效果模拟,就是说我只要在结果上模拟出人的智能可以做到的那些事情就可以了,至于内部怎么实现的,是不是用跟人脑一样的方式来实现,这个无所谓。
前些年大放异彩的阿尔法狗(AlphaGo)从本质上来说其实就是这种思路下的产物。阿尔法狗背后的基础是这些年最引人注目的一种AI技术——深度神经网络(Deep Neural Network)。
这种技术从最根本上说,是模拟人脑神经元的组织方式来实现智能(但你听到这句话先不要以为它就是模拟人脑,我先说下去,等会儿解释)。
深度神经网络的前身是一种叫人工神经网络模型(Artificial Neural Network)的程序。
下面贴了一张图,是人工神经网络模型的一个例子:
下面我尽可能简单地解释一下人工神经网络模型的一些关键特性,这部分内容可能比我们节目平时讲的东西略难一点,大家可能得竖起耳朵认真听。
人工神经网络模型是这样的:
大家从图上可以看到,模型里有些人工神经元是负责编码输入的信号,有些负责输出计算结果,还有些隐藏在输入与输出之间,负责信号的传递和转化。
模型里的每个神经元只对接收到的信息做很简单的运算。比如基于这样一个规则:只要输入的信号大于1,那就输出1,如果不是,就输出0。
这些人工神经元之间,以不同的强度连接在一起,也就是图上每条线上都有一个表示连接强度的数字。
比如说,如果强度是0.5,而之前那个神经元输出的信号是1,那么通过这条线传给下一个神经元的数字就变成了1*0.5=0.5。
而模型最关键的一点是,模型每输入一次数据,神经元之间的连接强度(也就是那些线条上的数字)就会根据之前设定好的一个规则发生改变。这样一来,AI专家就可以用大量的数据来调整神经元之间的这些连接强度。
一个模型一开始可能完全无法将输入信号转化成你预设好的输出信号,但经过大量数据的“训练”后,那些神经元之间的连接强度不断地调整,输出结果就会越来越符合设定的要求——换句话说,它会变得越来越“智能”。
大家在新闻里经常听到说专家用几百万张图片来训练一个AI,其实就是这个过程。
这就是人工神经网络模型的基本概念。
而AlphaGo里这种深度神经网络,简单粗暴地理解其实就是图里这种初级的人工神经网络模型的超级强化升级版,它最大的一个特征是中间层特别多,所以才叫“深度”网络嘛。
虽然乍一看,人工神经网络模型很像人脑的神经元网络,但它们之间的相似点也就到此为止了。
在人工神经网络模型里,信号的传导、神经元连接强度的调整规则都是基于函数与算法,网络的连接形态也和人脑神经元的连接形态有很大差别。所以它与其说是对大脑的模拟,不如说更像是一种纯粹的数学模型。它与人脑解决同样问题的方式很可能是风马牛不相及的。
这其实就是阿尔法狗的状况:它的棋力远胜过人类最强棋手,但它的“下棋思路”与人类棋手其实完全没有关系。它只是产生了特别会下棋这样一个看似很“智能”的结果,但它的实现机制,其实跟人类智能完全无关。
这也就是为什么这几年民间很多人担心“哎呀,人工智能再发展下去,会不会自我意识觉醒,然后统治人类啊”,但像Google的吴军博士这样的专家却一点儿也不担心这种事情,到处反驳这种AI威胁论。
因为在这些专家看来,按照以深度神经网络为代表的这种「效果模拟思路」发展下去,那么即便AI会变得比现在还智能一百倍,那它也只不过是针对某一个特定问题的最优算法罢了,它再怎么发展,也不太可能会像人类这样去“思考”,就更别提获得“自我意识”这种特别玄虚的事情了。
但是(凡事都有但是),在「效果模拟思路」这种当前的绝对主流之外,还有另外一种现在好像很边缘、但不可以忽视的思路,那就是「机制模拟思路」。
「机制模拟思路」
如果说「效果模拟」是曲线救国,那「机制模拟」就是硬碰硬啦。
这种思路是说:要让机器获得智能,那么我们就得先弄明白真实人类的智能到底是怎么回事,得先弄清楚人类智能、甚至是智能里最核心的那个东西——意识的本质是什么,然后以此为基础,在计算机里复制出人类的智能。
如果说「效果模拟」是一种旨在“解决问题”的工程师思路,那么「机制模拟」就可以说是科学家式的思路了。科学家往往不考虑解决实际问题,而喜欢“探寻本质”。
目前,这种“非主流”思路最重要的代表,大概就是美国认知科学家、人工智能学家侯世达(Douglas Hofstadter)了。
侯世达不是华裔,他的名字其实叫道格拉斯·霍夫施塔特,是美国印第安纳大学艺术与科学学院的教授。他会一点中文,给自己取了这么个中文名。
在侯世达看来,现在主流的AI研究虽然很强大,可是与真正的人工智能没有任何关系,而真正的AI,就应当建立在破解智慧本身奥秘的基础上。
侯世达对智能本质的思考,集中体现在他的一本旷世名著《哥德尔、艾舍尔、巴赫:集异璧之大成》里,这本书也简称为GEB。
这本书在理工科的科研人员圈子里知名度非常高,很多人也都有买过这本书,但我估计从头到尾读完的人不多,因为书里有些内容实在是有点晦涩,很多人都是把它当图腾一样供在书架上。
这本GEB里从头到尾都是关于智能本质的各种深刻洞见。我们就拿智能最核心的那个东西——意识来说吧。如果我们担心将来人工智能会拥有意识,那么担心之前,我们首先得弄明白,意识到底是什么。
每天早上当我们醒来的时候,意识就开始感知这个世界:比如今天阳光很好,我肚子饿了,昨晚做了个噩梦……。
这样来看,意识好像可以定义成“人脑对物理世界和身心感受的映照”。
但这就是意识的本质吗?并不是。
GEB里说,意识最神奇的一点,是它还可以映照意识自身,也就是“自省”或者叫“自我觉知”。
国内人工智能学者张江在解读《GEB》这本书的《一条永恒的金带》这篇文章里这样写:
自我意识的核心就是自我。自我并不是我所观察到的外在事物,而就是这个观察、意识本身。所以,我的身体、我的记忆甚至我的感受都不等同于我,真正的我恰恰不是所有这些有形的东西,而是体察、认识这些有形东西自身的能力。
也就是说,意识的本质,可能就是“自指”(自己的自,指头的指,自指,我这个南方人一说连着的翘舌平舌音舌头就打结,理解万岁)。
下面贴了《GEB》里大量引用的画家艾舍尔的一幅名画《画廊》:
在这幅画里,一个年轻人正在画廊里欣赏一幅画,而他面前的这幅画里有一个画廊。画中的画廊里也有一个年轻人正在欣赏着面前的画作——也就是说,这位年轻人其实是生活在他正在看着的这幅画作里面。
画作的内容,最后指向了它自己。也许这就是对意识本质最生动的描绘。
那么,有没有可能在计算机里写出这种自指的程序呢?所谓自指的程序,就是程序输出的结果与它的运行表现完全一致。虽然严格意义上的“自指”程序现在还没有出现,但它在理论上却是完全可行的!
那么,这是不是意味着,如果有一天人类真的写出第一个能够“自指”的程序,那么AI的自我意识也就在程序运行的那一刻觉醒了呢?理论上来说,有这种可能。
人类写出的第一个自指程序,可能同时也就是世界上第一个人造意识。
所以,虽然这种在计算机里模拟出人类意识的路线目前来看显得很边缘,但如果它将来成为可能,那么前面提到的那种对AI加害人类的忧虑就不能说是杞人忧天啦。因为按这种技术路线制造出来的AI,很有可能会真的拥有人类思维的核心——自我意识。
如果一台比人类聪明得多的机器拥有意识,那么我们当然有理由担心它对人类到底是善还是恶。
那这些就是我对人工智能两种实现思路的理解,一种模拟智能的效果,一种试图破解智能的本质。希望这些内容对你理解人工智能有帮助。
最后,留一道开点脑洞的思考题吧:如果有朝一日,AI的技术路径果真沿着后面说的这个路径发展并且计算机真的产生了自我意识,那么人类应该怎样免于AI对人类的威胁呢?
欢迎你留言讨论。那今天的节目就到这里,祝你生活愉快,我们下期见!
魏大大终于更新了,我每天都上来看您更新没,没更新我就重复听您之前的节目
魏知超 回复 @Yuan_Sunny: 好感动!万幸你们都还在,实在抱歉,上周临时出差去了,没赶得及,这周就恢复正常啦
魏老师录这期的时候,可能想到了,几年后,在2023年,计算机很可能会产生自我意识了。
回答一下我认为人类最可能的对抗:人类如果不想被淘汰出局,只有把人体和AI结合,未来人类的基因里有5%的AI,或者AI的基因里有人类的5%……像尼安德特人和我们的祖先一样
魏知超 回复 @破晓天光: 嗯,很多赛博朋克科幻小说里都是这么干的,其实就是跟纯AI军备竞赛,用人机结合的方式让人类的大脑也升级到AI的程度,这样至少可以跟他们对着干。
魏老师好久没有更新啦!今天终于回来了
魏知超 回复 @覺岸無邊: 抱歉抱歉,上周临时出差去啦,没赶得及,这周恢复正常
人大脑所有意识被串起来的啥玩意,还没被人完全弄明白。而机器是被人制造出来的。人自己都没弄懂清楚的事,可能制造出来给机器上吗?
现在的人工智能都多是用(效果模拟)思路实现的。意思是,在结果上模拟出人的智能可以做到的那些事情就可以了,至于内部怎么实现的,是不是用跟人脑一样的方式来实现,无所谓。,阿尔法狗就是这个思路,这种思路的人工智能再强大也无法威胁人类,因为它只是莫个专项里面的最优算法。
人工智能的发展必须有个界限,有些禁区是不能碰的,人类的优势是大脑皮层的高级认知能力,无论是记忆能力还是计算能力外包出去都没有问题,但是如果把认知能力也过渡给人工智能,那人类就是在自掘坟墓,核武器的出现已经警告人类是可以被毁灭的,人工智能可能是继核武器后的又一个潘多拉魔盒,科技的发展是有利有弊的,但是超过人类的控制力的话恐将酿成灾难,人类未来最大的危险就是科技灾难
老师我对这一块很感兴趣,那我大学应该报心理学还是生物学呢?
很受益,谢谢魏老师!
魏知超 回复 @Pearl2210:
如果往自我意识发展方向研究人工智能,那么需要在研发出首代机种植入一个潜意识-不能伤害人类。有点类似于盗梦空间的那种操作,必须要留这样一条防范措施,如果不行宁愿不造出首代机,因为一旦确立拥有自我意识以及超越人类的算法能力,后果不可控制。
魏知超 回复 @Damon步步: 你的想法跟我看到的一些科幻小说特别像,这个想法其实就是,我们从细节上是很难控制那种又自我意识的AI到底会做什么的,但是我们可以给他们植入一种“本能”,用这种本能来调控他们行动的基本方向。