3月31日 千位大牛发起AI停火协议?科林格里奇困境这么解!

3月31日 千位大牛发起AI停火协议?科林格里奇困境这么解!

00:00
04:42

【王煜全 要闻评论】粉丝群已经开通


欢迎加入前哨粉丝群,在这里你可以和科技投资人、创业者、各行业专业人士互动沟通,分享心得体会,也可以第一时间了解到前哨相关活动动态,结交志同道合的小伙伴。


入群方式:
微信扫码下方二维码即可入群

如果您想洽谈合作,请添加创新地图的微信:innovationmap ,并附上简介。


你好,我是王煜全,这里是王煜全要闻评论。


3月29日,一封名为《暂停大型人工智能实验的公开信》(Pause Giant AI Experiments: An Open Letter)在媒体圈被大肆报道,从千位科技大牛签名支持,到GPT-5研发被叫停,AI研发遭遇停火协议,传得越来越玄乎。


今天我就和大家好好聊聊这事为什么成不了,以及技术威胁论背后的「科林格里奇困境」。

图片


这封信的详细信息不少媒体都已经扒得很清楚了,简单说就是「AI技术发展太快了,呼吁所有的AI研发机构,6个月内暂停研发比GPT-4更强大的AI系统」。


我们先看看发起机构未来生命研究所(Future of Life Institute),这个机构2014年成立,发起人之一是《生命3.0》一书的作者,一直宣扬人工智能威胁论的马克斯·泰格马克。


创办当年,这个研究所就模仿1975年讨论DNA技术对人类威胁的阿西洛马会议,召开了主题为“人工智能的未来:机遇和挑战”的闭门讨论,今天参与签名的马斯克当时也参与了其中。


不过,这次的公开信既不是圈内人发起的行业规范,也没把AI技术有什么危害讲出个所以然,纯粹就是说这技术很危险,大家先暂停一下。


签名支持的人也比较杂,除了几位公开承认的计算机大牛,到昨天下午2点,签名支持的1377号人里,还有出版商,导演,最初还出现了仿冒OpenAI创始人签名的情况,让这封公开信变得更像是技术威胁论者的闹剧。


显然,AI技术和当年的DNA技术一样,并没有因为一场会议的号召而停止脚步,AI技术威胁论倒是没啥提高,一边喊着AI要更加准确、安全、可解释,提出一系列的新要求;另一边,解决办法不是投入资源做更多研发,而是让大家先停一下。


出现这样的情况,其实也挺正常,这就是新技术融入社会时常会遇到的科林格里奇困境(Collingridge dilemma)。


这是英国技术哲学家大卫·科林格里奇(David Collingridge),在1980年的作品《社会的技术管理》(The Social Control of Technology)中提出的概念。


简单说就是新技术刚出来的时候,我们没法推断出它对社会的影响究竟是什么,等到真正的负面影响出现时,由于技术已经融入社会太深,又很难改变。


解决科林格里奇困境也有过一系列的思辨和研究,最常见的一种思路就是所谓的「预防原则」,和今天这封公开信很相似,也就是我们不能确认一项技术对任何个人、集体,甚至是已有的规则是安全的,就不该接受它。


换句话说就是可能有坏处就拒绝,这种做法在我看来无异于因噎废食,走向了阻碍社会发展的极端。

图片


今天同样参与签名,要求暂停AI研发的凯文·凯利当年评价「预防原则」时也说「标准不明确,只是极大的增加了创新的门槛」。显然,面对新技术变革,即便是凯文·凯利也还是容易回到老路上。


那么这个困境有没有什么解决方案呢?


答案当然是肯定的,那就是智能试错方案(Intelligent Trial and Error)。


这个思路最早1992年在《规模管理:大组织、大技术、大错误》这本书中提出,原本为企业应对新技术引发的管理、产品问题,核心要点就是管理层要做到权力分散,对技术引发的变化了解可控,在不断试错中快速优化技术方案,控制潜在的风险和成本。


2013年,耶鲁大学做科技研究的学者爱德华·伍德豪斯(Edward Woodhouse),在他的教学资料《技术文明的未来》(The Future of Technological Civilization)做了更多的梳理,将这个思路用到了技术导入社会的过程中。


他认为要快速找到新技术的负面影响,并加以控制,就应该让技术能更快的小规模试错,在用户的反馈中找到它的短板与不足,只有这样,当技术真正面向大多数用户的时候,才不会突然暴露出巨大的短板,引发难以估量的风险。


在我看来这才是解决「技术威胁论」的正确答案,不是给技术按下暂停键,而是让它更透明、被公开应用起来,小步迭代、不断优化,毕竟问题不会凭空暴露,技术产品只有在使用中才能得到改进,才能发挥它的长处,控制它的短板。


当然,今天这封公开信可能也不是为了解决「技术威胁」的忧虑,毕竟「6个月内,暂停研发比GPT-4更强的AI」这个标准,既没有说更强的AI是什么,也没说明为什么只暂停6个月而不是8个月。


图片


如果让我用商业八卦的思路联想下,这封公开信更像比赛中让第一名别跑太快,停下来先等等大家。不过,无论这封信出于什么目的,AI技术已经被越来越多的人接受,真正要控制风险,关注的应该是每次增添新功能都要做好提前的开放测试,而不是暂停一下,停止研发。


以上是今天的内容,更多详细的产业分析和底层逻辑,我会在科技特训营里分享。欢迎关注全球⻛口微信号,报名加入!


王煜全要闻评论,我们下周见!


以上内容来自专辑
用户评论
  • 终会实现_沙漠森林

    一项技术的单兵突进不是好事。就像当年火车刚发明时,没有比火车传递信息更快的方法,火车的调度就很困难,导致事故频发。直到很多年后电报发明出来才解决

  • 莫尔强

    前苏联最杰出的领导人是谁?文心一言回答“斯大林”,而GPT4回答“戈尔巴乔夫”。

  • 王zhijie_a8

    打卡