精华笔记
喜马拉雅听友你好!欢迎收听今天的课程。本集我们将继续讨论人工智能的阴暗面——我们也会特别关注一个情况——人工智能正确预言的危险。这为什么会成为一个问题呢?且让我细细分晓。
一、人工智能预测未来
大数据与人工智能之所以能做出更好的决策,靠的就是帮助我们更好地理解自己身处的这个世界。而且,大数据与人工智能往往还能更好地预测未来的事情,预测一件事何时发生,又会发生什么。靠着这个办法,我们就能更好地审视面前的各个选项,然后选取对的那一个。人工智能的预测在很多情况下都能帮助我们做出更好的决策。我们担心的问题是错误的预测,也就是人工智能搞错了,使得我们会基于错误的预测,做出错误的决策。我们唯一的目标似乎就是要保证这些预测正确且最优,而且随着时间推移可以变得越来越好。
但是问题又来了,如果这些预测真的变得越来越准确,如果人工智能可以预知未来,可以预言小到芝麻小事,大到军国大事的未来呢?一方面,我们就能做出更好的决策,降低风险,行事算无遗策。另一方面,精确预测时代的到来,可能会让我们最终陷入一个与好莱坞大片《少数派报告》相似的世界。在电影里,未来可以精准预测;结果就是,人们被捕入狱不是因为他们已经犯下了罪,而是因为系统预知的罪行。这套系统的杀手锏就是它从不出错:所有预测都会成为现实,因此那些被捕的人都不会被视为清白之身,即便他们被抓的时候还没做任何犯法的事。
这些故事情节也许只是极端情况,也不大可能在未来成为现实。但我们大可以严肃地想一想这个问题,那就是如果它真的成为现实呢?这对人类又意味着什么?
二、人类意志的未来
人类相信自己拥有意志。这也是我们每天都在经历的事情。我们决定自己去哪里,我们不是牵着线的傀儡。当然了,今天我们的意志力面临种种限制。我们的行为都会有后果。但要说得精确一些,情况是这样的:正因为我们行动自由,所以我们才会面临行为的后果。人之所以要为自己负责,一大要素就是要看做了什么。说得更简单一些,就是人类可以控制自己的行为。如果我这个人没有自我意识,我就不可能为我的身体做的事情负责。唯有我可以控制自己行动的时候,我才拥有做什么或是不做什么的选择,因此也就会为我的行为负责。人类意志也是人类责任的先决条件。如果有其他外力强迫我做某事的话,那么这种外力就要为它强迫我做的事情负责,而不是我本人。这条意志-责任的原则已经深深嵌入了当代人类的意识之中。
但是,事情并不总是如此。短短几百年前,仍然有许多人相信,诸神就像摆弄傀儡一样操弄着人类,我们也不过是众神奇思妙想之下的玩偶,而不是我们自己生命的主宰。这套观念在人类进入启蒙时代和现代之后已经宣告终结。在一个理性占据主导的时代,我们已经知道自己不再是什么傀儡,而是我们自身命运乃至集体命运的主人。
现在我要说的是:我并不认为人类的意志一定是客观存在的。说实话我也不知道究竟它存在还是不存在。但是我认为,我们人类的行为是假定人类意志真实存在的,我们也将意志力与责任联系到一起,我们还相信行为会有一连串后果。当然了,我们相信,只有行为才会产生罪责。因此,某人要为还没发生、但是在预测中已经发生的行为负责,这种想法对我们而言是完全陌生的,也是现在的人类和人性所难以接受的。
亲爱的听众,这正是基于人工智能的所谓“未来完美预测”的症结所在:如果这种完美预言存在的话,那么它就将动摇人之为人的根基。我们不再是自己生命的主人,而是要倒退到那个自甘为道具的时代,或是一根线上的傀儡。我们不再有意志力,能力,也没有主观能动力。这的确是人工智能预测背后真正黑暗的东西,正是因为它太好了,太完美了,反而会让我们心怀恐惧。
三、对抗的可预言性
那么问题来了,我们怎样才能消除这个危险?既然我们已经知道危险发生的机会也许少之又少,那么我们是否还要认真对待这种威胁?
但我们又应当做什么呢?在许多场景下,更好的预测都是个好事情。我们也想让自己的预测变得更精准。但在某些领域,这些预测会触及人类自由的根基,影响我们做出的关键决策,比如在自由还是被囚禁的问题上,人类意志应当得到存续。在这些很窄的领域里,我们应当考虑做点什么,阻止预测未来的情况出现。毫无疑问的是,这会增加未来的风险和不确定性,降低决策的质量。但是好处也很明显:这会保有人之为人的珍贵本性。
就在我们意识到需要讨论如何从过去解放出来的同时,大数据与人工智能的阴影也让我们悲痛,必须认真讨论如何保证未来是开放的,让未来成为可以由人类型塑和选择的事物,而不是什么计算出来的结果。我们预测未来的能力正在飞速提升,所以是时候认真考虑这个问题了,我们希望对预知未来这件事施加什么样的限制。
当然了,这件事不会很快产生结果。这个问题没有快速见效的妙招,也没有什么魔法秘笈。不同国家会产生不同的解决方案,关注点也会有所不同。但是我们可以预见的是,个体生命,个人生活,个人自由,社会公序良俗,都将是保有“低预测”环境的优先保障对象,尤其是它们与个人行动和个人选择等问题结合的时候。
正如人工智能与大数据的预测那样,我们永远不能忘记它们只是工具。要不要运用这些工具,何时运用,为了什么目的运用,这些都可以完全由我们决定。工具本身不是问题;它们只是迫使我们思考,我们应当对工具施加哪些限制,装上哪些法律栏杆,还有我们希望推行的哪些日常安全举措。随着我们塑造未来的能力越来越大,我们其实无法阻止自己运用这种能力——但我们必须有计划、深思熟虑、保持谦卑。
希望你喜欢本集内容,思考人工智能的阴暗面。本集我们描述了人工智能的威胁,这威胁并不是错误预测的威胁,而是预测太完美的威胁。太完美的预测会让人类失去意志力,也失去自由行动的能力。正确预测的危险,其实比错误预测还大得多;对人类的危险在于,人类会因此丧失自主性,就像迷信妄信时代一样,被降格成诸神游乐场上的单纯道具。保有我们自身命运的主体功能,这对人类本质的存续非常关键;这就是思考这个问题的目标。在特定敏感的领域和议题,限制预测的威力——我认为,这正是实现这一目标的正确做法。
还没有评论,快来发表第一个评论!