正观快评:千人联名喊停超强AI研发,清醒再多一点

正观快评:千人联名喊停超强AI研发,清醒再多一点

00:00
04:19

3月29日,非营利组织“未来生命研究所”发表了一封题为“暂停超强AI实验”的公开信,呼吁全球的AI实验室暂停训练比GPT-4更强大的系统至少6个月,并尽快制定出一份针对AI的共享安全协议,必要时需要政府介入。

全球1000多名人类精英在这份公开信上签名,包括埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、《人类简史》作者尤瓦尔·赫拉利,还有图灵奖得主、“AI教父”约书亚·本吉奥这样的重量级学者和大量科研人员。

未来生命研究所的公开信已有1079人签署

长期以来,人类对AI存在一些误解,包括“人工智能很聪明,不会犯错”“我们将被人工智能毁灭”“人工智能会很友好”。也就是说,人们很难以清醒的头脑定义复杂的超智能“电脑”,也难以及时或提前预料到AI发展中的各种问题。

其一,AI发展速度过快。现在AI还只有大脑,接下来它可能进化出“眼睛”、“耳朵”、“手”和“脚”,从效仿到超越,谁都不希望霍金担心的“人工智能可能导致人类毁灭”变成现实;其二,AI可能被滥用。近期“AI换脸造黄谣”“AI一键脱衣”引发道德和伦理问题,而超强AI、高级智能一旦被乱用,则可能带来灾难性影响;其三,缺少对AI的精准定位。如今AI产品爆发式增多,各行各业引入先进技术固然没错,但人类社会是否明晰我们究竟希望AI做什么、怎么做?如何正确发挥其辅助性作用?这些需要精准、精细地划分。

有人害怕被AI取代工作,有人坚信AI是未来世界的钥匙,有人一味追赶AI研发队伍……所以,如果人类还没有准备好迎接AI浪潮倾泻,不妨从危险竞赛中收回脚步,适时按下“暂停键”。在这暂停的6个月内,共同开发一套AI设计和开发的共享安全协议,给这项新技术上一把“安全锁”。

监管是非常清醒的诉求,针对AI的共享安全协议须以风险可控为前提,由联合监管所规制。一方面,运营机构要把好第一关,监督和跟踪AI系统,完善区分真实和合成数据的溯源机制,防患于未然。另一方面,可成立专门的监管机构,包括统一化规范AI行业,细化责任认定标准,处理AI造成的各类破坏性事件。

如今,科技圈掀起巨大风波,一千多人的联名呼吁的确不是杞人忧天。但我们既要看到其合理性,也要更清醒一点,尤其小心技术阻滞。

部分人认为呼吁暂停是一种“酸葡萄心理”,AI竞赛中落后的玩家在为自己争取6个月的时间。例如不断向AI“开喷”的马斯克,一边形容它是“潘多拉魔盒”,呼吁限制微软、谷歌的研发速度;一边被传已与AI研究人员进行了接触,希望建立开发能替代ChatGPT的产品。如果真是出于技术垄断、封锁等目的,那确实是格局小了,多少玩家将会在不公平的技术竞赛中败下阵来。但我想这一千多名科技人员并不都是这样。

汽车畅行马路五十年后,安全带才被发明出来;杀虫剂面世近百年后,人类才怀疑其破坏环境……对于一种前所未见的新科技,人们应该不断思考、探索、提出质疑,才能辩证性地看清一种新事物。在此过程中,我们不必对AI心生恐惧。毕竟,一切人工智能都是人类社会延续的助手,而不是对手,更不是敌人。

寻找一条人类与AI共同进步的出路是应有之义,但这次或许暂停了,那么下次呢?我想,堵不如疏,只有在明确规则、监管规范的基础上,人们尽快明确人工智能的边界,并调整危机治理策略,以适应第四次工业革命浪潮下的新时代。未来世界一定是人机共生、人机交互成为常态的新世界。

以上内容来自专辑
用户评论

    还没有评论,快来发表第一个评论!