5月17日 GPT是多专家模型,人脑可能一样!聊一篇《科学美国人》文章…

5月17日 GPT是多专家模型,人脑可能一样!聊一篇《科学美国人》文章…

00:00
06:23

【王煜全 要闻评论】粉丝群已经开通

欢迎加入前哨粉丝群,在这里你可以和科技投资人、创业者、各行业专业人士互动沟通,分享心得体会,也可以第一时间了解到前哨相关活动动态,结交志同道合的小伙伴。


入群方式:
微信扫码下方二维码即可入群


如果您想洽谈合作,请添加创新地图的微信:innovationmap ,并附上简介。



要闻背景简述


如今,世界各地的优秀工程师都在帮助人工智能快速进化,但在此过程中,人工智能也在帮助人类更加了解自己。


近期,《科学美国人》杂志发表了一篇文章,标题为《Building Intelligent Machines Helps Us Learn How Our Brain Works》(构建智能机器帮助我们了解大脑的工作原理)。


文章的主旨是AI的发展帮助研究者探索人脑如何协调不同的模块来处理复杂任务,这种探索是通过模仿大脑的“全球工作空间理论”(Global Workspace Theory,GWT)来实现的。


全球工作空间理论(GWT)将意识比喻为一个舞台或中心会议室,各种大脑模块在此交流信息,这些模块涉及感知、记忆、语言处理、情绪调节等功能区。当某个模块的信息需要被广泛注意或需要作出决策时,这些信息会被送入GWT,成为意识的焦点。


在AI领域中,研究者通过使用“混合专家”(mixture of experts)架构,试图复现这种理论,以期达到类似人类的智能水平。比如,不同的神经网络或“专家”负责处理不同类型的查询或任务。


文章作者通过讨论全球工作空间理论和混合专家模型的进展,强调人工智能和神经科学研究可以相互启发,呼吁继续这种跨学科的探索,以加深对人类智能的理解。


那么,我们还可以从《科学美国人》的这篇文章中看到什么启示呢?


以下是王煜全要闻评论:


最近人工智能很热,我们也强调人工智能是这个时代的蒸汽机,但是有一件事是非常值得重视的,也是我们在科技特训营里反复强调的,要知道这个新技术的能力边界,不是现在的能力边界,是未来的能力边界。也就是说,未来人工智能到底能发展到什么样。


最近我在《科学美国人》(SCIENTIFIC AMERICAN)杂志上看到一篇文章《Building Intelligent Machines Helps Us Learn How Our Brain Works》,《科学美国人》经常做一些科技前沿的综述,文章写得非常漂亮。


图片


我今天要给大家介绍的这篇文章,讲的是人工智能的研究同时也推动了我们对自己的人类智能,对我们人脑到底是如何构建的了解和认知。


简单说,就是在这一轮的人工智能潮流之前,其实我们对人类认知的理解相对来说都还是比较浅的,但是到人工智能出现了以后,大家突然之间发现有很多的实践其实和人类智能是有非常相似之处的,也就是说,通过对人工智能的研究,会反过来理解人类智能,对我们人类智能也会推进一大步。


文章里当然讲了很多详细的东西,大家有兴趣可以去看。


我们主要讲的就是人类智能很可能比今天最复杂的人工智能都还是要复杂一点,这就涉及一个系统问题,也就是说,人类智能到底是个什么系统。


大语言模型是个语言智能,这之前我们过度高估了语言智能,觉得它什么问题都能回答,而且回答得好像很有智慧的样子,但后来我们发现这种语言智能和Sora这样的视觉智能很相似,它并不是真正地理解了内容,而是有足够大的语音语义库,它能够训练出来一个足够好的应答而已。


所以,人工智能就是到了单一类别的智能的水平,这种单一类别的智能还是有很大的应用的价值的。


现在就有很多人来研究各种模型了,据说OpenAI研究的GPT-5就不是一个模型,而是N多个专家模型结合起来的,这也和我们对人脑的认知是基本一致的,人脑其实并不是我们想象的一个“自我”想干嘛去实现了。


人脑是有多个子系统的,这些子系统是用民主方式投票,最后哪个子系统获得了最大的关注,就上升到意识里,你就觉得这是“我”。所以其实“我”是一个假象,是民主投票出来的。


不过,这些其实都还并不是人类智能的真正精髓,《科学美国人》的那篇文章都还没有达到这个水平,它只是在个体的水平上去分析我们的智能和决策机制,已经看得很深了。


图片


但是我认为,人类其实和动物还是不一样的,我们毕竟不是动物智能,不光有智能,而且有理性、有逻辑,这样能使我们每个人对某些事物产生理解以后,把我的理解拿出来和别人来交流。


当然有时候我的理解会是错的,甚至人类文明发展到现在,有时候整个人类对某件事的理解都是错的。比如,以前整个人类社会都认为地球位于整个世界的中央,现在我们都知道地球不是世界的中央,当时所有的人类的认知都是错的,这很正常。


但是,正是因为我们能够把自己的理解通过理性的方式表达出来,而且和别人去交流、去印证,所以才能出现人类知识的汇总。


举个例子来说,就是人类能够登月,但是没有一个人能够把登月所需要的所有知识完全掌握。


也就是说,我们人类的强大不在于每个个体。所以你就可以放心了,AGI能不能战胜人并不重要,人的强大根本就不在个体上,强大在群体上,在我们的文化上。


为什么GPT能那么强大?其实是因为互联网是一个汇集人类文化的绝佳场所,你用互联网全网数据做训练,相当于用人类的文化训练了GPT,所以它才能达到这个水平。


我们认为,人工智能达到AGI并不可怕,真正需要担心的是什么呢?是人工智能也会出现群体智能。


现在的人工智能就已经出现Agent化,那Agent就会有自己的经验、有自己的体验,那此Agent和彼Agent都做类似的事,他们做事的方式到底是不是一样,是不是有规律能够被掌握,这种时候就会有交流的需求。


很有可能Agent和Agent之间、人工智能体和人工智能体之间未来也会出现各种的交流互动,也可能是用人类语言,也可能是用计算机语言。


到那个层面,人工智能对人的贡献可能更大。因为它甚至会对我们文化当中的很多现象祛魅,帮助人们思考,我们的文化里是不是还有很多错误,每个人都习以为常,以至于没有去纠正。


也许到了人工智能出现群体智能的水平的时候,就能够帮助人类更好地纠正了。也就是说,真正实现AGI可能不是一个人工智能体,而是一个群体。


图片


当然人工智能的个体和群体差异和人类不一样,人类的个体和群体差异是很明显的,因为每个人都有一个边界,我们叫主体和客体的边界感,这种差异感是“自我”形成的一个很重要的概念。


人工智能很可能“自我”形成没那么快,但是它可以有多个智能,相互讨论、相互交流,多个智能最后合在一起又会形成一个声音给人来提供意见,这是可以的。


你会发现,这就有点像我们的大脑,其实是多个系统相互交流,最后形成一个意见来汇总。所以群体人工智能很可能反倒更像人类大脑,如果群体人工智能还没出现,很可能就达不到AGI。


所以,第一你不用担心AGI的到来,那还很遥远。第二我们也给大家敲了警钟了,AGI如果真的到来的话,大家可能是要担心一下。但是真正值得担心的是AGI的超前指标是什么,就是人工智能是不是在做群体智能了。


当然最后卖个关子,其实即使人工智能实现了群体智能,听起来有可能全面赶超人类,我们依然不用担心。为什么呢?我在科技特训营里已经给大家讲过了,欢迎你到那里去寻找答案。


另外做一个预告,6月24号到29号,我们会组织“前哨日本长寿科技考察活动”,我会全程陪大家一起赴日本考察,过程中会一起分析总结,还会分享我个人的一些禅修方法。


详细活动信息可以扫描下方二维码查看。活动名额有限,感兴趣的朋友抓紧机会报名吧。


图片


另外,今年是科技特训营8周年,创新地图的小伙伴们为大家准备了8周年福利,5月1号到5月31号,也就是这个月购买科技特训营会员,就可以获赠两个月学时。


心动不如行动,感兴趣的朋友抓紧时间扫描下方活动海报中的二维码,报名加入,让我们在科技特训营里一起看懂未来。


以上就是今天的内容,更多详细的产业分析和底层逻辑,我会在科技特训营里分享。欢迎关注全球风口微信号,报名加入。


王煜全要闻评论,我们下周见。


图片


回放地址


长按扫描二维码加入科技特训营,可观看所有直播和回放。


图片

以上内容来自专辑
用户评论
  • 青橙柚子枇杷

    当下多年的智能客服都蛮傻的,且一直没觉得有啥进步。。。。

  • MashiMaro_5N

    gpt

  • 南华之影

    所以说,把人工智能比作蒸汽机有点过了,人的智能多元复杂,远不止模型叠加那么简单。

  • 马哥开讲

  • 马哥开讲

  • 马哥开讲