【人工智能】1-3:人工智能问题归根结底是人的问题

【人工智能】1-3:人工智能问题归根结底是人的问题

00:00
09:44

更新提醒 

每周更新三期

点击右上角免费订阅↑↑↑

本期原文 


前两期呢,我们由《机械姬》电影出发,先和你探讨了,AI的思想和人到底一样不一样,然后和你探讨了人工智能会不会超越人类。我们发现,目前的深度学习AI仍然是单一功能的计算网络,虽然强大,但做不到像人类一样多功能处理事情,也缺乏自我决策的能力。


那么,在这种情况下,未来的人工智能发展,会对人类构成威胁吗?经常有人问我,景芳,你怎么看人工智能未来和人的关系?人工智能会对抗人类,甚至消灭人类吗?


哈哈,这个问题确实很有意思。我们在《终结者》和《黑客帝国》里看到,人工智能已经强大到开始对抗人类了。很多大佬也争论过这个问题,大家在网络上看看扎克伯格、马云、马斯克等人的讲话,就会听见各种不同的观点。我今天不想随意下结论,而是想把这个问题背后的逻辑梳理清楚。


我们需要问:如果人工智能未来跟人类对抗,那可能是因为什么情况呢?


我综合了一下,大概有这么几种观点:


第一种是,人工智能诞生了自我意识,感受到被人欺侮和奴役的痛苦,于是杀人以复仇。


第二种是,人工智能虽然没有自我意识,但是做事非常一根筋,例如一个机器人的任务是把地球种满番茄,结果遇到人类挡路,就把挡路的人都杀灭。


第三种是,未来诞生了超级人工智能,比人类强大太多,结果像清理虫子一样清理人类……


所有这些,都是人工智能的威胁论故事。第一个威胁论故事,类似于《西部世界》或是《机械姬》里面的描述,我称之为人工智能复仇故事;第二个威胁论故事,有点像是残酷版的《Wall-E》,可以称之为人工智能失控故事,也是艾伦.马斯克的观点;第三个威胁故事,类似于《终结者》或是《黑客帝国》里的超级智能与人对抗,可以称之为人工智能压迫故事。


那么未来,会不会发生这些对抗呢?我们就需要再更加深入分析一下,这三种故事背后的逻辑和前提又是什么,是否可能发生。


第一个人工智能复仇故事。如果人工智能对人类产生恨意,就需要它们先感受到痛苦,在人——在受人欺侮和奴役的时候,能产生类似于人的愤怒和悲伤,也就是说,需要人工智能能产生类人情感。那人工智能如何产生类人情感呢?目前的AI工程师还并不知道。人工智能算法是在所有路径和数据中,找到最佳策略之路。它的前提是有一个明确的目标,有最优答案。例如,让AI找到游戏最快速通关的方法,这个目标就很明确,AI就能学会。但是情感感受的目标是什么呢?例如,如何设定“学会愤怒”这件事的目标呢?情感感受没有明确目标。而没有明确目标,AI网络就难以学习。它学不会情感,感受不到愤怒,又何谈复仇。


第二个故事我们先跳过,直接看第三个故事。第三个故事是人工智能压迫故事,担忧的情况是未来人工智能成为这个星球上最强大的物种,就把人类铲除,自己成为星球的霸主。会发生这样的事吗?


在这里啊,其实需要挖掘一下这种推测背后的逻辑。之所以会做出这种推测,实际上是在用动物物种之间的争权搏斗来套用到人工智能和人类身上。我们会认为动物物种间的争霸就是唯一的生存模式。但需要问的是,即使未来人工智能超级发达,智能程度远超过人类,超级人工智能会和动物物种的行为一样吗?


在这里我们会发现,动物物种之间的争霸,很大程度上与捕食行为有关。因为要捕食,要争夺食物,所以发展出武装系统和斗争本能。但与此同时,植物的进化就并不导向与动物殊死搏斗,因为动物给植物提供二氧化碳,植物给动物提供氧气和食物,各取所需。因此,这里最关键的因素其实是能源资源以及获取方式。在智能网络世界,人工智能的进化学习要大量数据作为支撑,有人曾经说过,数据就是下个世纪的基础能源。那么超级人工智能除了需要获取电力能源之外,更有可能的是从人类行为中获取大量数据,就像植物和动物系统相互供给气体,与人类共生。除此之外,人工智能生存在人类构建的数字世界中,既没有躯体感官的享乐,又没有有性繁衍的动力,因此人类的各种欲望系统它们可能都没有,认知需求可能会是它们最主要的动力需求。综上所述,人工智能即使进化,也一定是不同于一般动物的物种,不太可能和我们像动物那样厮杀。


分析完第一、第三种故事,我们再回到第二个威胁论:人工智能失控故事。相比而言,这个故事反而更有可能,因为任何程序失控都有可能造成人员伤亡,无论是不是人工智能。工厂的失控机器还有可能将工人倾轧,更何况强大的人工智能机器,失控的后果更为严重。这种情况下,考验的是程序员编写预防性指令的能力。程序员需要突破程序专业限制,更多考虑到每一种可能出现的风险,将道德判断和伦理依据输入人工智能程序,这才能预防过于死脑筋的AI,为了种番茄把人清除。这对程序员的综合素质要求更高,要求他们有科技向善的意识,来下达命令,而这并不是很容易的事。


除此之外,还有一些困难的伦理判断,人们现在也没有很好的结论,更不用说如何教导人工智能学习了。例如最为经典的电车难题:一辆疯狂电车即将撞死一群人,如果你是扳道工,会不会将扳道岔扮向另一个方向,撞死另一边的一个人?一群人和一个人怎么选择?现实中的电车难题可能会体现为救人和杀人的权衡:如果为了抗洪救灾必须修一座桥,修好了桥,能救一千人,但是修桥的过程中会杀死两个人,那么能不能杀人?


这种困难的伦理问题,是我们接下来必须非常重视的问题,也是国际人工智能学界最近两年最重视的课题。随着人工智能越来越强大,它可能对人造成的伤害也会越来越大。只不过,这种伤害很有可能不是来自于人工智能仇视人类,而是来源于我们没有教给他们判断伦理的标准,或者更有可能是坏人利用或唆使人工智能为非作歹。但是目前国内外学术界对于这些伦理判断问题,都还没有好的共识。科学家不能代表全人类给人工智能输入伦理标准,但也没有谁能代表全人类输入这些标准。这是当前很大的风险。


因此,人工智能问题,归根结底是我们人的问题。我们需要自己更深的想清楚这些问题,才有可能以向善之心,指导人工智能开发进化。在我们下一周的采访访谈里,我们就会采访一位人工智能伦理专家,跟他一起去探讨这些困难的人工智能伦理问题。


好了,在过去三期,我给你介绍了人工智能的基本概况,让你了解到人工智能深度学习目前学习能力很强,但是对于常识、多功能综合、情感感知和复杂判断方面,都还很原始。未来还需要对人类脑科学有大量研究突破,才有可能带动更强大的人工智能发展。我们现在不用担忧人工智能对抗人类,我们更应该忧虑的是,我们自己对人类伦理问题也思考太少。下周我将带你实际探访人工智能顶尖专家,聊一聊这些困难的问题。这里是《折叠宇宙》的世界,我是郝景芳,我们下一期分享再见。




以上内容来自专辑
用户评论
  • 听友52039629

    情感源于生物化学机制,因为人和动物是碳基,基于对物质世界(生化反应)的调用,实现基因的延续目的。 如果信息能被直接处理,是否需要这种能生成情感的生化反应呢?

    寒江雪0129 回复 @听友52039629: 情感是自由意志,根本原因不基于原子的化学反应那么浅显,肯定是基于物理学所探讨的领域,在康德看来,自由意志来自于不可知的自在之物,当代科学认为自由意志应当来于某种不可确定的因素,只有不确定,才可能产生自由意志

  • 强壮的老妈妈

    说话速度太快了,让听众感到上不来气

  • 南南2016

    会不会智能机器在计算最优方案时,把伤害人作为方案之一呢

  • 超爱读书的喵

    的确,人是越来越不像人了

  • volshebnik

    这一期讲得真挺好的,特别是人工智能与人类形成动物与植物那样的关系的观点,很有启发性