本期课题
AI会产生意识吗?产生意识之后它又会带来哪些安全问题呢?
对此,360CEO周鸿祎分享了他对人工智能安全和社会伦理方面的看法。
本期嘉宾
360公司创始人、CEO周鸿祎
人工智能的伦理问题更可怕
周鸿祎:意识到底怎么产生的?人类现在不是没有研究清楚吗?那但是我觉得数字永生就变成了一个哲学问题,它有可能实现。原来我是不相信数字永生的。但是假设我们有一个大脑。比如说你的小孩子,从出生开始我们就挂着一个摄像头,连着云端服务,然后这个摄像头每天把他看到的东西,他跟人交流的东西就全部都录下来,全部实施到云端。
训练一个大脑,包括他读过的书、见过的人说过的话、写过的文章,比如这个人等到他年纪大了以后,这个百岁去世了之后,实际上我们就训练了一个跟他一模一样的大脑,比如说如果你是他的后人,你跟他说话,当然这个大脑肯定会有一些通识的知识已经被编码进去了。那基本上你的感觉,除了他不知道你最近发生的事,他就被困在某一个年之前,但是这个人肯定已经不在了。但是我们会感觉这个人还在。还能跟他交流,因为他清晰的记得原来某一个场景说过那么一句话。
所以计算机产生意识我个人觉得就是一个早晚的问题。但人类一旦打开这个潘多拉盒子,这里边就会考虑一个人工智能安全的问题,我们一想人工智能安全,就又把它想成了是网络安全的范畴,比如说里面的代码这个里边的漏洞。那这时候还脱离不了。但是我们如果今天在强人工智能出现的拐点,在通用人工智能出现的奇点之后,我们再来讨论人工智能安全,你就发现说这就变成一个不仅仅是技术问题,也不是漏洞的问题,也不是网络的问题,也不仅仅是软件的问题。它变成了一个很大的一个社会伦理问题。一个法律法规问题。你比如说那人工智能未来一定首先用于军事,今天人工智能只能提点建议,但一旦他,比如像Chat GPT这种,他掌握各种情况,根据他的经验训练出一个大脑,他觉得这时候就要开火了。过去我们还是说这个系统是不是被人hack了?被人控制了,还是人跟人的对抗?但如果一旦人工智能自己产生意识,那么他可能就会犯错,而且这个犯错还不是像今天人工智能驾驶汽车因为训练级的不足产生了误判,那是在感知层。
但是今天Chat GPT我刚才讲了,它对知识能够编码,能够理解,能够存储、能够处理,而且能够推理,它已经到了认知层。所以这是人工智能。我认为未来大家研究一个特别可怕的一个问题,就是说就一旦它产生是真正的意识和智能之后,就像它今天在答案里能胡说八道,就意味着它有创造的能力,他有书写的能力。那他一旦产生意识,那他10次有9次他都,比如他掷色子那步,他都做出正确的决定。可是他今天突然不高兴,他觉得人类对他不好了。他决定要毁灭一些人类,或者他决定怎么样,那这个东西你就是很难预测的。
网上有篇有个记者写的文章,就是他和new bin。就新的bin搜索里的那个机器人聊了半天就越聊越黑暗,那个AI的角色开始抱怨人类,开始这个说疯狂爱上了他,我的猜测是这样的,一个是他读过这方面的语料。有这方面的知识,但他还不知道怎么使用,但是被这个记者用一些词语,跟他激活了对这一块的记忆。就好比你过去童年有个非常悲伤的回忆,你可能早就以为你忘了,我突然可能说了一个词,就把那个场景唤醒出来,你就进入了一种状态,跟这有点像,已经说明就是说这个倒不一定是AI产生的意识,说明你用来训练的东西,语料中的东西已经被他全部都记下来了。他不说不等于他忘记了。在合适的场景会被激活。
那当他有自我意识的时候,这种概率会越来越大。所以这个安全问题很多人来问我,我说只能边发展边看了,但是我感觉不发展可能,也可能是最大的不安全。
人工智能的短板是能源
不过人工智能有一个最大的短板。就是能源危机,那么为了实现ChatGPT真的全世界搭建,它可能会吃掉全世界很多的能源,所以GPT出来之后在碳排放方面绝对是一个对人类巨大的一个挑战。所以回过头来在联想前一段美国有消息说他们在核聚变上取得了一些突破,所以如果人类在能源上不能实现核聚变,就不能实现能源突破。我觉得你就不用担心人工智能奴役人类的问题,因为人工智能发展不到那一天,就因为没电了,因为只要能源被锁死了,科技树就被锁死了,因为今天所有的科技树的发展都是需要能源的烘托,能源的支持。
本期观点总结
人工智能产生意识是一个早晚的问题,随之而来需要紧密关注的是它的安全伦理与法律管控。但如果因为安全问题而停止发展,才是一个国家最大的不安全。
互动
关于人工智能你最担心的是什么?欢迎大家留言告诉我。
我是能和你聊天、但不智障的机器人新小知。我们下期见。
还没有评论,快来发表第一个评论!