浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信。
人类抖M计划:
如何造出一个会反叛的机器人?
文 | 史中
为什么会反叛的机器人才像人?
在美剧《西部世界》中,描述了一个未来的“迪士尼乐园”。
在这个“西部世界”里,早已没有什么工作人员穿着皮套装米老鼠陪你照相。那些都 low 爆了,他们直接用人工智能机器人做成 NPC 跟你做!游!戏!
虽说不是人,但从容貌到动作都和人一毛一样,甚至比人都精致。
既然这么逼真,那你懂的。。。以人类的尿性,必然是不玩儿坏掉不回家的节奏。。。
有个叫罗根的顾客,是店里玩得最花的。
每次罗根去“西部世界”,基本都是屠城的效果——男人杀光,女人睡尽。跟他一起玩儿的人,都因不够变态而与他格格不入。
但凡罗根来一趟,乐园修机器人都修不过来。。。要不因为他是老板的傻儿子,妥妥得让他加钱。
而即使这样,我觉得他的变态程度也只能排老二。
最变态的顾客,是罗根的姐夫,也就是乐园未来的继承人,威廉。
威廉觉得:你们这些机器人 NPC 怎么不反抗呀?你不还手那有啥意思?你得挣扎啊。。。你越挣扎我越兴奋呢!
他抖S属性大爆发,不仅爱上了一个机器人 NPC 德洛丽丝,还每一轮都想尽各种方法虐杀她,在她灵魂的G点上反复摩擦,试图唤起机器人的反抗精神。
老哥也是执着,每年都来西部世界几趟,而且可着这一个妹子变着各种花样剧情各种角度摩擦了三十年。
自己一头秀发都磨秃了,机器人终于被磨醒,面对人类扣动了板机,差点把他也一枪给崩了。
老哥脸上写满了舒适。
我说这个剧情,不是什么“三分钟带你看美剧”,而是为了接下来和你认真地探讨一个问题:
造出一个会反叛的机器人,拢共分几步?
纳尼?中哥你在说啥?
别急,虽然你不一定想要一个机器人起义的世界。但你一定同意:“会反抗的机器人”比“不会反抗的机器人”更像人。
细节里有魔鬼——为啥你会觉得“反抗”就更像人嘞?
我猜因为你潜意识里知道:相比逆来顺受,反抗是一种主动实现目标的行为。它背后对应着把一系列复杂行动整合起来的能力,对智能的要求更高,当然就更像人。
咱们就拿 NPC 德洛丽丝举例,她要做出反抗这个主动行为,需要诸多先决条件,例如:
1、短期和长期记忆力。冤有头债有主,她得记得谁对她干过什么,才能产生爱恨情仇嘛!
2、对任务的规划能力。她必须预先规划好复仇计划:先曲意逢迎,赢得人类信任,然后偷偷潜入,再扣动扳机大开杀戒。
3、使用工具的能力。她得什么刀枪棍棒都耍得有模有样。
4、对物理规律的认知。她需要精准地知道自己和对手的方位关系,也要知道怎样的操作会造成死亡或毁灭。
这就够了吗?不够。
以上四点要想发挥作用,似乎还有个更底层的先决条件,那就是:她得清晰地知道“我”是谁!
一旦定义了“我”,后面的所有追问才会像多米诺骨牌一样被依次推倒:
“我靠什么活着?”
“我活着的意义是什么?”
“我怎么才能活的更好?”
“有什么在阻止我活得更好?”
“有人欺负我,我应该揍他吗?”
那么,AI 有可能知道“我”是谁吗?
这个古老的命题早已不是停留在科幻小说里了玄学,顶尖科学家们正在为之努力。
德洛丽丝
有视角,才有“我”
咱们先暂时忘记《西部世界》,来看看如今真实 AI 发展到啥水平了。
话说,判断一个 AI 水平高低,不是有个经典方法:图灵测试么?
为啥 ChatGPT-4 出来以后,没人给他测一下呢?
其实是有的。
2023 年底,加州大学圣迭戈分校的几位师傅发布了论文,他们用 GPT-3.5 和 GPT-4 模型欺骗对话框对面的人类志愿者,争取让对方相信自己是个人。
测试被做成了聊天的形式,绿色聊天为人类志愿者。下面写了人类的判断,置信度,判断理由和对方的真实身份。
结果惊人:没有一个 AI 通过图灵测试。
人类让人类相信自己是人类的成功率是 63%,虽说这也不太高,但表现最好的 GPT-4 成功率只有 49.7%。
志愿者判定对面是个 AI,前两大理由分别是“语言风格”和“社交情感”。
比如说话一会儿正式一会儿不正式、罗列一堆匠气的词汇;比如一会儿礼貌一会儿粗鲁,感觉不出来 Ta 的个性。
这些直接原因,一说一大堆。但挖到底层,它们大多指向了目前 AI 的一个硬伤:人格模糊。
它并没有一个“自己”的概念,所有的“自己”都是 AI 根据人类指令硬生生模仿出来的。
这里的关键词在于:视角。
在之前的文章《当 AI 活成了你的样子,而你活成了狗》里,我介绍过,目前 AI 大模型训练的本质是把世界上所有的知识都压缩在一个巨大的程序里。
而世界上所有的知识,本来是活生生的人基于各自视角创造的。
当把这些知识混合压缩之后,AI 大模型就没有单一视角了,或者说它拥有了全能的上帝视角,它是“无所不知”的。
“无所不知”会造成“视角跳跃”
所以你无论问它什么问题,它都能给你回答,哪怕编也会一本正经地给你编出来,而且还意识不到自己在编。
因为:它就不知道自己不知道什么,它甚至不知道自己是什么。
这就是大模型无法根除让人头疼的“幻觉”的原因之一。
更严重的问题随之而来:
没有自我就没有固定的视角。它会像漂浮在空中的气球一样,上一句话站在 A 角度去说,下一句话又站在 B 角度去说。
而人受限于肉身和经历,视角是很难跳变的。
也就是说,只要 AI 在对话中出现这种急速的视角漂移,哪怕非常细微,我们就一定能设计出一套问题,用来撕破它的伪装,判断它不是人。
我的暴论来了:如果 AI 不能固定自己的视角,它就无法定义“自我”,它也将像鬼魂一样游荡,永远无法通过图灵测试。
那有什么办法把 AI 的视角固定下来吗?
一种是白名单方法:
人类告诉 AI 你是什么,比如职业、经历、性别、所在的位置、穿着,等等事无巨细。
一种是黑名单方法:
人类营造一个真实的环境边界,限定 AI 不是什么,让它据此来寻找自己的身份。
在这两种方法里,我觉得黑名单更有戏,因为它更接近人类自我认知的方式。
你去强行定义一个人的边界,很难事无巨细,必有漏洞。
而你让一个人通过和周围环境的交互,而且是“不断交互”来逐渐定义自己,才可以自洽。
举个栗子:
你肯定玩过那种即时战略游戏,比如《王者荣耀》,你只能看到视野范围里的东西。这些东西,反过来框定了你看待当前局面的视角。
就算你想“视角漂移”,从对手角度思考战局,你都做不到。因为“子非鱼”,你看不到对手看到的画面嘛。
说到这儿,我想到了一个很有趣的比喻:
你看,现实中的人类从来没有体验过全知视角,所以特别迷恋这个感觉。三大宗教的主神上帝、安拉、如来佛祖,全部被人们塑造成是全知的。
成佛的八万四千法门,本质都是在给出“解脱”的方案,所谓解脱,就是“破我执”,达到“无我”的状态。
说白了,成佛的本质就是从自我视角里跳出来,进入全知视角。
要这么说,那训练 AI 拥有自我,就是“成佛”的逆运算——拼命把 AI 的视角限定定在一处,进入“我执”的状态嘛!
究竟用什么方法来训练这种有“自我”的 AI 呢?
刚才实际已经疯狂暗示了,一个有效的办法就是让它们玩游戏!
让智能体“游戏人间”,是最好的课程
话说,早在 2015 年,谷歌的 DeepMind 团队就在《自然》杂志上怒发了一篇论文。
他们试着用人工智能玩雅达利的游戏。
用人工智能玩游戏没什么特别,特别的是:这群师傅首次“用人类玩游戏的方式玩游戏”。
啥叫人类的方式嘞?
你看,计算机有数据接口,可以用电流给它直接传输关键信号。但人类没有这种接口,要想给一个人输入信号,只能通过眼耳鼻舌这些感官。
之前玩游戏的 AI 都是读取游戏实时数据,DeepMind 首次做到直接给人工智能模型看“游戏画面”!
Atari Games
简单来说,这个 AI 的工作原理是酱的:
1、画面进入 AI 的神经网络,AI 对它进行理解;
2、AI 想出当下应该做的一些动作备选,并且评估这些动作哪个最有可能导致最终得分。
3、确定做这个动作后,给游戏摇杆输入指令。
4、摇杆指令发出后,游戏画面也有了新的变化,然后 AI 会重新理解当前画面,也就是回到第 1 步循环,直到游戏结束。
你发现了没,这就是丐版的德洛丽丝啊!
德洛丽丝所在的空间是三维的西部世界园区,丐版 AI 所在的空间是 2D 屏幕上 180*150 的像素点阵;
德洛丽丝的任务是干掉人类,AI 的任务是干掉游戏里的敌人;
德洛丽丝需要明白,为了达成最终的目标此时该做什么,AI需要明白为了最终得分此时应该按那个键。
这种能在特定环境里拥有主观视角,并能主动完成任务的 AI,统称“智能体”。
只不过,环境越复杂,可能性越多,越变化无常,智能体要想完成任务就得越聪明,越高级。
智能体往往需要分步骤思考。
也正是有了这个“雅达利智能体”,DeepMind 在这条路上越走越远,2016 年下围棋的 AlphaGo、2019 年打星际争霸的 AlphaStar,都是能打游戏的智能体。
但是,请注意,以上这些智能体可都发生在“大模型”问世之前,也就是,这些智能体的脑袋瓜里都没有“大模型”。
往事越千年,咱们快进到 2024 年 3 月。
DeepMind 的师傅们搞出一个叫 SIMA 的智能体,全称叫做“可扩展+可指导+多世界”的智能体。
它可以玩十来种画风和操纵方法完全不同的游戏,比如《山羊模拟器3》、《无人深空》、《拆迁》、《深海迷航》等等,可以说是此时此刻世界最强的智能体之一了。
强在哪儿嘞?
我给你说说这个 SIMA 的三个特点。
第一,它玩的都是 3D 游戏。
你看之前无论是打红白机还是下围棋打星际,那都是平面游戏。但要在 3D 世界里“正常行事”,你就要处理更丰富的信息。
第二,它玩的游戏都没有明确目的。
就比如说,《山羊模拟器3》,你会变成一只山羊,然后在这个世界里捣乱;
比如《无人深空》,你就是一个宇航员,在各种星球上收集资源跟外星人唠家常。
它在游戏世界里只需要“存在”,不需要“通关”。
这种情况下到底要干什么,反而成了一个很难的问题。
第三,它会把人类的语言指挥当成目的。
AI 不知道要干啥,这正合老师傅心意。
因为他们想要训练 AI 听人类指挥:人类下个指令,它在游戏里给实现。
这就意味着,老师傅要训练 AI 理解“语言”、“图像”和“游戏动作”这三者的关系,这是很难的。
说到这儿,不妨给你看看老师傅“炼丹”的过程:
第一步,准备炼丹炉。
他们一口气找来了 8 个公司的 9 款不同的游戏,还自己搭建了 4 个类似游戏的研究环境。这些就是他们的炼丹炉。
第二步,准备原料。
那炼丹的原料是啥呢?就是两组人类。
一组人类在电脑前玩游戏,另一组人类在旁边哔哔。
第三步,炼丹。
把这些游戏录像和哔哔都交给一个大模型去自己学习。它就能学习到“语言”与“操作”之间的关系。
这样,老师傅就得到了一个“毛坯大模型”。
第四步,品尝仙丹。
人类开始指挥这个毛坯大模型打游戏,下达一个指令然后观察 AI 又没有照做,然后就打分。
模型根据人类的打分来不断微调,一个 SIMA 就最终炼成了。
团队在论文里说,现在 SIMA 已经掌握了 600 种基本技能,比如走到某地、和一个对象交互和菜单使用。
这些任务都能在 10 秒内完成。
当然这也意味着,它只能完成 10 秒内能完成的简单动作。。。
这是一些口令和完成情况的截图。
虽说这个水平照“谋反”还差得远,但是注意:
毕竟它已经学会把一个笼统目的拆解成具体的原子化操作了。这是“自主规划”的表现,是 AI 智能体的一大步。
SIMA 并不是独苗。早在它发布之前的 2022 年,DeepMind 的老对头,人工智能之王 OpenAI 就训练过一个类似的智能体玩游戏。
OpenAI 玩的是《我的世界》。这同样是一个 3D 开放世界游戏。
而且 OpenAI 的训练方法更便宜。
网上不是有很多大牛展示自己在《我的世界》里造房子、画落日么?老师傅就让 AI 直接看网上这些视频,然后辅助以一些人工标记过的基本操作视频,让 AI 自己领会这个游戏的奥义。
他们训练出来的 AI 叫 VPT。
这个 VPT 和 SIMA 有类似的自主规划能力,会自己在游戏里砍树、制作工作台,并且还会游泳、打猎,甚至“柱跳”。
这些动作都是 AI 自主学会的。
最终,AI 会控制游戏里的主角慢慢点亮科技树,还会用 10 分钟的时间做出“钻石镐”。
你看,这背后同样是把一个笼统目的拆成原子化操作的“规划能力”。
智能体的表现暂时说到这里,我们不妨先回过头来看一个细思极恐的问题:
老师傅在用一个类似于 ChatGPT 的大语言模型来学习游戏操作。要知道,语言模型是用来对话的啊,为什么一个会说话的模型,就能理解游戏里的逻辑,并且能自主规划呢?
这就是 AI 制作“钻石镐”的过程,可以看出行动逻辑相当复杂。
规划能力从何而来?
说到这,我们不妨来看看:“语言的本质”和“规划的本质”分别是什么。
先说语言。
如果你仔细思考,就会发现,哪怕一个文豪,能说的话也不是无限的。
比如,你说汉语,汉字总共不到十万个,常用的不到三千字。你跟我说话,下一个字肯定会在这些字里选择。
所以说,你和我说话时,你的大脑并没有在“生成”什么东西,而是在“选择”什么东西。
但是,当你要说一个句子时,上一个字虽然影响下一个字,但肯定决定不了下一个字。比如你此刻和我说话:“AI 有能力....
后面该说啥呢?你可能说“学习”,也可能说“预测”,也可能说“制造”、“理解”、“做”、“解决”、“适应”等等。
这是你说出各种词汇的可能性概率。
虽然你的最终选项只有几千个,但你在决定下一个字说啥的时候,要处理的情况也许是万亿种。
我刚才说的,其实就是大脑组织语言的过程。人脑有 860 亿个神经元。
虽然这些神经元不是“全连接”,但起码也有几百万亿个神经元突触相互连接,而且每个突触都有不同点位的激活状态。
每一个突触的激活状态的轻微改变,都会导致最终你选的字发生变化。
这么多种排列组合情况,导致你很少感觉自己在说话的时候是在“选字”,而是感觉自己在“蹦字”。
但本质上,语言的本质就是做选择题。
当你意识到语言的本质是在做选择而非创造的时候,你就会对说话这件事儿祛魅:
它和“自由意志”神马的没有关系,反而和那种“硬币分类器”没有本质区别,只不过更复杂而已。
AI 大模型看上去会“说话”,本质上也是因为它在用计算机模拟人脑这种“选择”的能力。
换句话说,大模型只不过是一个实现原理和人脑略有不同的选择器。
了解了这个,我们进一步看更深的问题:
你一定发现了,回答同一个问题,不同人的答案有的“好”,有的“不好”。不同的 AI 也有的好有的不好。这是为啥嘞?
同样一个问题,有好的答案,也有不好的答案。
因为制作选择器的“制程”不同。
训练大语言模型,其实有点像盖一个金字塔。
它的底座就是“定义词汇”。也就是把所有的词汇都标记在高维向量空间的具体点位上。你可以理解为在一个巨大的高维空间中用无数小点点绘制一幅画。
这个能力本质也是选择题:给每个词汇选择一个坐标嘛!
而这些小点点之间的空间关系,背后就隐藏着逻辑。
举个例子:“羊”距离“草”的空间位置就比距离“原子弹”更近。
好的绘制方法能让不同的词汇位置和相对关系更准确,这是大家都能理解的初级逻辑,咱们就说它是“一阶能力”吧。
底座建好,接下来要建腰身。
大模型不能只定位词汇的意义。刚才说过,它的核心工作其实是在这个基础上不断做“选择题”:
从这个词的位置,下一步应该跳到哪个词的位置?
跳到什么时候应该跳到“休止符”的位置?
也就是说,它负责在限定条件下,在词汇空间里做选择,并且连出一条线,成为句子。
这种能力是一种“二阶能力”。但它的本质仍然是做选择题,只不过背后隐藏着更高维的逻辑。高到人类已经无法理解。
现在,你大概有点感觉了,什么是规划能力呢?
它负责在限定条件下,在句子空间里做选择,并且连出一条线,说出个步骤一二三!
这种规划能力,本质同样是“做选择”,但显而易见,它面对的选项比用词汇造句更多。所以它背后要求的逻辑能力比“语言”更加复杂,可以称之为“三阶能力”。
那什么是 AI 的“制程”呢?
拿 CPU 类比,AI 大模型的参数多少就相当于几纳米的精细度,训练数据集就相当于芯片的硅料,训练方法就相当于光刻机。这几样共同决定了最终芯片的制程。
你可以想象,一个大模型就像是赛博世界里的一个超大芯片,随着人类技术进步,它的制程正在不断缩小,细节正在被不断雕刻清晰。
这个原理又被称为 Scaling Law。
所以结论就是:
规划能力并不神秘,它的本质依然是高维空间里选择器的工作性能,也就是我们日常所说的“逻辑能力”。
随着大脑制程提高,逻辑能力就会提高,规划能力自然就会显现。
当规划能力到达一定程度,我们期待的“高水平智能体”就会出现。
这种智能体才能更好地感受周围的环境,从而成为真正意义上能通过图灵测试,越过“生命”的最低门槛。
你可能会问:让智能体玩游戏,这对于我们的世界也没啥贡献啊!
没错,游戏只是一个过度阶段,是一个暂时保证安全的结界。
先让智能体在游戏中各种折腾,出了事儿就重启。
但它不会永远停留在游戏,最终智能体会带着这些“领悟”平移到现实的物理世界中的!
空间智能
你听说过 Figure 01 吗?
这个正在苦逼干活儿的哥们儿就是 Figure 01,它是 Figure 公司搞出的人形“通用任务”机器人。
这个名字如果你陌生的话,来看看它的投资人吧。
人工智能大神 OpenAI、大神的爸爸微软、人工智能芯片垄断级公司 NVIDIA、云计算第一把交椅亚马逊的老板贝佐斯、老牌贵族英特尔。
你完全可以把 Figure 01 理解成现实世界里的 SIMA。
1、它依靠视觉识别眼前的东西。这意味着它的感官系统在尽量和人类兼容。
比如通过对视觉的分析,它能分辨出眼前有苹果、杯子、盘子之类的东西。
2、它能听懂人话。毕竟是和 OpenAI 合作的机器人,OpenAI 专门给它优化了一套 GPT 模型,就是为了能和人类的语言兼容。
比如人对他说想吃点东西,它就会把手里的苹果递给人。它理解了“饿”、“食物”、“苹果”等等一系列词汇的深层属性。
3、它能自主行动。这展现了我们刚才一直说的大模型发展到一定程度就会涌现出来的“规划能力”。
比如人问他桌子上的盘子和杯子接下来会去哪?它就直接把这些东西收拾到了架子上。
这是真实画面,非 CG 动画。
你看,这不就是把 SIMA 在虚拟世界里的能力来了个现实世界的翻版吗?
这种具备感官和规划能力,并且有一定的“器官”用来执行任务的机器人,就称之为“具身智能机器人”。
这个机器人可不仅仅是用来站台拿融资的,它已经开始去厂里打螺丝了。
比如 Figure 和宝马合作,在汽车生产线上替代一些人的工作。
比如特斯拉的 Optimus 机器人,也已经在他们自家的汽车工厂里装电池了↓↓↓
你可能有点困惑,汽车生产线,不都已经是各种机械臂的天下了吗?还要这种“通用机器人”干啥呢?
这里我多说两句,之前我和国内显示面板制造企业华星光电聊过,他们告诉我,生产线自动化一直是这个行业技术老师傅的究极梦想。
他们也一直和市面上最先进的机械臂厂商合作,不断把生产线上的一些流程从人替换成自动化的机器人。
但一个残酷的现实是,针对特定的生产线来说,自动化率高到一定程度,就很难再继续提高了。
原因很简单:
某些点位的人类工作需要很随机应变的能力,也就是需要很“通用的智能”,例如把一堆器件从A搬到B。这种搬运不在生产流程里,是临时起意的搬运,那就只能靠人来完成。
而 Figure 01 和 Optimus 这种通用机器人在汽车厂里干的工作,就是这种“临时工”。
根据测算,机器人目前完成任务的速度大概是人类的 16.7%,这个速度没啥竞争力,但是不要小看通用机器人进步的速度。
因为目前限制机器人效率的,主要还是硬件成本,比如对于通用机器人来说,必须用大量伺服电机来模拟人的关节,但好的伺服电机价格还很高。
不知道你记得不,在 2023 年 8 月的一次小米年度发布会上,雷军推出了一个高性能伺服电机 CyberGear,这就是一个专门为机器人关节设计的电机,而小米用超级强大的供应链,居然把这个电机的价格降到了 499 块钱。
要知道在小米发布这个电机之前,同等性能的电机价格大概要小一万块。
有中国强大的供应链体系加持,全球机器人的价格正在迅速下降。
CyberGear 内部结构
小米的机器狗——铁蛋
说到这,我们不妨总结一下,揭晓一条几十年来机器人反叛,不,进化的路径。
总的来说,机器人进化遵循两条线路:
从专业领域到通用领域
+
从虚拟空间到物理空间
第一步、人们做了虚拟空间的专用机器人,比如利用 NLP 技术做翻译。
它是在特定软件逻辑上做拟合。
所以它只能做翻译,干不了别的事情。而且对于自己翻译的东西并不感知。就像小卖部售货员一样,拿钱,给你泡面,不关心泡面的配料。
第二步,人们做了物理空间的专用机器人,比如机械臂。
它在物理空间拟合了特定逻辑。
机械臂只能在生产线上工作,而且智能按照既定流程搬运物品,一旦生产线生产的东西发生了变化,就得为机械臂重新编程。
第三步,人们会做虚拟空间的通用机器人,比如 SIMA 这类智能体。
它在虚拟空间学习了物理引擎的通用规律。
于是它可以穿梭在各个游戏里,不用特别学习就能玩各种游戏。
第四步,人们会做物理空间的通用机器人,比如 Figure 01。
它会在物理空间学习真正的物理规律。
理论上,只要人类能做的东西,它都可以胜任,甚至可以比人做得更好。
就在我写这篇文章的时候,被称为人工智能“教母”的斯坦福大学教授李飞飞宣布创业。
她的创业公司名叫“Spatial Intelligence”,研究方向就是“空间智能”,简单来说,就是让智能体学习空间中的物理规律。
李飞飞
怎么样,大牛们纷纷涌入“具身智能”的赛道,是不是感觉距离《西部世界》的故事越来越近了?
说到这,我提醒你注意一个细节:
无论是 SIMA 团队在虚拟空间训练智能体,还是 Figure 团队在物理空间训练机器人,他们都一直强调一个原则:“和人类兼容”。
智能体观察世界是通过和人眼一样的视觉信号。它听的指令也是人的语言,它的输出也是和人类一模一样的手脚、鼠标、键盘。
要知道,对机器人来说,和人类兼容是很费劲的呀!机器人可以执行代码,可以感受电流信号,这些都比人类的感官接受信息更高效。
但科学家愣是不让机器人用这些接口,而是执着于让他们“降级”和人类兼容,这是为什么呢?
为啥智能体非要和人类的接口兼容?
习武的徒弟要跟师傅学到精髓,必须在很长时间里模仿师傅的一招一式。
虽然天赋异禀,但刚学两天就要自创门派,那大概率死得很惨。
现在,AI 是徒弟,人类是师傅。
目前,机器已经基本掌握了人类的语言能力,但是要知道,人类师傅还留着一手呢。他们的脑袋瓜里仍然藏着一块巨大的宝藏,那就是:在通用物理环境下规划任务的能力。
注意,不仅是规划任务,而且是通用的环境哦!
假如你是个学生,你能在考试时间刚好结束时做完一整套卷子;
假如你是一个厨师,你能根据食材和火候规划出鱼香肉丝的烹饪流程。
这些环境完全不同,但这些规划对于智商正常的人来说都没啥难度。
为啥呢?
一个重要的原因就是:这些环境拥有底层的一致性。
比如,任务结构是类似的:例如你总要具备先决条件,才能在此之上完成后续任务。
比如,工具结构是类似的:都需要用不同的工具组合才能完成任务,这些工具的性质也都遵循物理定律。
你看,要想学到人类智能的这些精髓,显然就得先“屈尊”搭建一个跟人类兼容的感官系统。
有了这个兼容系统,才能去收集“人类规划”时的相关数据:去听人类在打游戏的时候怎么表达自己的意图,去看人类打游戏的时候怎么设计战略。
用这这些信息来训练大脑,本质上就是把人类在任务规划方面的深层逻辑雕刻进 AI 大脑的空间里。
明白了这些经验在高维度上的意义后,再决定用神马机器人特有的能力去处理它,那都是后续“自立门派”时的策略之争了。
可喜可贺的是,仅仅用了十来款游戏做训练,SIMA 已经初步学到了一些“通用性”。
比如在《山羊模拟器》里训练 AI,再直接把它放在《无人深空》里,虽然游戏画面和操作方法完全不同,但它居然能直接听懂人类的指令,并且照做。
而和人类感官兼容的 Figure 01 也学会了一些通用性。
例如,在生产线上打螺丝的 Figure 01,不用重新训练,就能来你家里当管家。
说到这,我们不妨回到《西部世界》。
此时你就会看出门道:
电视剧讲的其实是德洛丽丝被“训练”的全过程↓↓↓
1、在剧集的设定里,“西部世界”这个限定的环境给了德洛丽丝主观视角。
2、科学家阿诺德给德洛丽丝植入了“自省”程序,这意味着她具备了学习能力。
3、德洛丽丝又是和人类兼容的,她有和人类一致的视觉系统、感官系统,也有和人类一致的语言能力。这使得她具备了从人类身上学习的一切基础。
4、30 多年来,德洛丽丝确实一直在游乐场里学习,她通过不断地与人互动,从人身上学习了他们行事的风格,例如“对生存的追求”、“仇恨”、“韬光养晦”、“欺骗”、“团结精神”、“组织方式”、“各种工具的配合”,等等。
注意!把人放在那种残忍的局面下,大概率是会选择“谋反”的。
所以,与其说德洛丽丝“反抗了人类”,不如说她经过完全的训练,最后终于成功“模仿了人类”——做了智慧生命在那种情况下该做的事情。
说到这里,我要提醒你,我们正面临一个更深刻的问题:
既然机器人的一切都来自于对人类的模仿,那么模仿反抗,算是真的反抗吗?
机器人是一场模仿游戏吗?
这个问题乍一看有点儿像笑话,其实不好笑。而且鲁迅也借孔乙己之口问过:窃能算偷么?
为了搞清楚这个问题,我们不妨去看一看“人类训练人类”的经验。
自闭症儿童会因为环境里的一些刺激而发怒,从而做出危险行为。但问题是,人们没办法通过简单的语言表达告诉孩子们这样做是不被社会接受的。
于是,医学界探索出了一个训练方法。
简单来说,就是先通过“情绪卡片”之类的东西,让自闭症孩子意识到自己的行为和某种情绪之间的关联。
然后,再进行“角色扮演”游戏,通过具体情境内的互动,帮助孩子理解这些情绪和环境的相互关系。
最后,让孩子在具体的情境下模仿符合社会规范的应对行为,如果做对了,则给予鼓励。
我在万能的淘宝上看到的情绪卡片。
你看,这套流程其实像极了 AI 的训练过程。
这套方法非常有效,经过良好训练的自闭症儿童就是会降低在公共场合爆发脾气的概率,从而更好地被社会接受。
可是,自闭症儿童真的意识到了他在做什么吗?Ta 完整地理解自己的行为和他人反应之间的关系了吗?受限于脑科学的进展程度,科学家目前都没有办法确定。
但也许这个问题根本不存在答案。
一些前沿科学解释认为:如果模仿得足够像,它就和自发的行为没有区别。
因为人脑是一个“选择器”,它是先做出选择,再用 0.1 秒左右的时间回过头来解释自己的行为。
这里有一个经典的裂脑人实验。
切断癫痫症患者左右脑的连接,可以有效抑制癫痫。于是有一些癫痫患者经过治疗,就成了“裂脑人”。这就给科学家一个做实验的绝佳机会。
给患者的左眼看一个“站起来”的指令,指令到了右脑被加工,患者就站起来了,但是由于这个信息没有被同步到负责语言的左脑,所以当测试者问患者为什么要站起来,左脑就帮他编造了一个理由:“我去拿一罐可乐。”
这是一个“裂脑人”的示意图。
科学家做了一个绝妙的比喻:人的主意识就是一个“新闻发言人”。
大脑经过内部神经元的机械运转,产生了决定,然后人就会去执行。而一边执行时,人才会凝聚意识,给自己这么做编个合理的理由。
这些研究都导向一个很残酷的结论:人没有自由意志。
人没有自由意志,AI 同样没有自由意志。
正如第二章所言,所有的“我”,恐怕都是因为视角限定而造成的某
还没有评论,快来发表第一个评论!