ChatGPT在做什么 第8章一个足够大的网络可以做任何事情

ChatGPT在做什么 第8章一个足够大的网络可以做任何事情

00:00
02:46
ChatGPT在做什么 第8章“当然,一个足够大的网络可以做任何事情!”
【洞见】
像ChatGPT这样的东西的能力似乎是如此令人印象深刻,以至于人们可能会想象,如果人们能够“继续”训练越来越大的神经网络,那么它们最终将能够“做任何事情”。如果一个人关心的是人类直接思维容易触及的事物,情况很可能是这样的。但是,过去几百年的科学经验告诉我们,有些事情可以通过正式的过程来解决,但人类的直接思维并不容易理解。非平凡数学就是一个很好的例子。但一般情况是计算。最终的问题是计算不可约的现象。有一些计算,人们可能认为需要很多步骤来完成,但实际上可以“简化”为非常直接的东西。但计算不可约性的发现意味着这并不总是有效。相反,有一些过程——可能就像下面这个过程——在这个过程中,要弄清楚发生了什么,必然需要追踪每个计算步骤:我们通常用大脑做的那些事情,大概是特意选择来避免计算不可约性的。心算需要特别的努力。在实践中,仅仅在一个人的大脑中“思考”任何重要程序的操作步骤基本上是不可能的。当然,我们有电脑。有了计算机,我们可以很容易地做很长,计算上不可约的事情。关键是一般来说,这些都没有捷径。是的,我们可以记住很多特定计算系统中发生的具体例子。也许我们甚至可以看到一些(可计算化约的)模式,这将允许我们做一点概括。但关键是计算不可约性意味着我们永远不能保证意外不会发生——只有通过显式地进行计算,你才能知道在任何特定情况下实际发生了什么。最后,在可学习性和计算不可约性之间存在着根本的矛盾。学习实际上是通过利用规律来压缩数据。但计算不可约性意味着,最终可能存在的规律是有限的。作为一个实际问题,人们可以想象将小型计算设备(如细胞自动机或图灵机)构建成可训练的系统(如神经网络)。事实上,这样的设备可以作为神经网络的好“工具”,就像Wolfram|Alpha可以是ChatGPT的好工具。但计算不可约性意味着人们不能指望“进入”这些设备并让它们学习。或者换句话说,在能力和可训练性之间有一个最终的权衡:你越想让一个系统“真正使用”它的计算能力,它就越会显示出计算的不可约性,它就越不容易被训练。它的可训练性越强,它就越不能进行复杂的计算。(对于目前的ChatGPT来说,这种情况实际上要极端得多,因为用于生成每个输出标记的神经网络是一个纯粹的“前馈”网络,没有循环,因此没有能力使用非普通的“控制流”进行任何类型的计算。)当然,有人可能会怀疑,进行不可约计算是否真的重要。事实上,在人类历史的大部分时间里,它并不是特别重要。但是我们的现代技术世界已经建立在至少使用数学计算的工程基础上,而且越来越多地使用更一般的计算。如果我们看看自然世界,它充满了不可简化的计算——我们正在慢慢地理解如何模拟和用于我们的技术目的。是的,神经网络当然可以注意到自然世界中的各种规律,而我们也可能很容易通过“独立的人类思维”注意到这些规律。但是,如果我们想要解决数学或计算科学范围内的问题,神经网络将无法做到这一点,除非它有效地“使用”一个“普通”计算系统。但这一切都有一些潜在的困惑。在过去,有很多任务——包括写论文——我们都认为对计算机来说“从根本上来说太难了”。现在我们看到像ChatGPT这样的计算机已经做到了,我们会突然觉得计算机一定变得更加强大了——特别是超越了它们已经基本能够做的事情(比如逐步计算像细胞自动机这样的计算系统的行为)。
【以上讲计算不可约性和可学习性的矛盾】
但这并不是一个正确的结论。计算上不可约的过程仍然是计算上不可约的,并且从根本上来说对计算机来说仍然很难——即使计算机可以很容易地计算出它们各自的步骤。相反,我们应该得出的结论是,像写论文这样的任务,我们人类可以做,但我们认为计算机不能做,实际上在某种意义上计算起来比我们想象的要容易。换句话说,神经网络之所以能成功地写一篇文章,是因为写一篇文章比我们想象的“计算上更肤浅”。从某种意义上说,这让我们更接近于“拥有一种理论”,即我们人类是如何做到写论文之类的事情的,或者是如何处理语言的。如果你有一个足够大的神经网络,那么是的,你可能可以做任何人类可以轻易做的事情。但你无法捕捉到自然世界一般能做什么,或者我们从自然世界中创造出来的工具能做什么。正是这些工具的使用——包括实际的和概念上的——使我们在最近几个世纪里超越了“纯粹的无辅助人类思维”的界限,并为人类的目的捕捉更多物理和计算宇宙中的东西。
【洞见】


以上内容来自专辑
用户评论

    还没有评论,快来发表第一个评论!