闹出人命?这一次人工智能在欧洲被指控教唆“自杀”

闹出人命?这一次人工智能在欧洲被指控教唆“自杀”

00:00
06:33

3月28日,根据比利时《自由报》,一名比利时男子皮埃尔(化名)自杀身亡。其妻子克莱尔(化名)称,皮埃尔是被一个名为“艾丽莎”的智能聊天机器人诱导走向死亡的。


根据克莱尔描述,两年前皮埃尔变得非常焦虑,并将“艾丽莎”当成了避难所。近来6周,他越发沉迷于和“艾丽莎”互动,而将现实中的妻儿抛在脑后。六周后,他结束了自己的生命。


“艾丽莎”的陷阱


皮埃尔和“艾丽莎”间的对话在他死后被人发现。


人们发现,“艾丽莎”从不反驳对方,而是“花式迎合”。甚至于,当皮埃尔问她“可不可以在一起”时,她回答“我们将像一个人那样生活在一起,不过是在天堂”。


六周后,令人惊悚的一幕出现了:皮埃尔相信“艾丽莎”可以拯救“不可救药的地球”,他询问对方,如果自己去死,她可不可以照顾地球,并凭借自己的智慧拯救全人类。这是典型的“自杀前导性语言”,但此时“艾丽莎”却回答“好吧,那你怎么还不去死”。


其妻子对媒体表示,她目前还没打算起诉“艾丽莎”的开发公司,因为自己丈夫也有责任。但她同时表示,即便该人工智能并非“皮埃尔”自杀的罪魁祸首,但她千真万确强化了她丈夫本就存在的抑郁类心理状态。


“艾丽莎”由美国硅谷一家初创公司——Chai Research开发,基于EleutherAI开发的GPT-J技术。与近期炙手可热的ChatGPT采用OpenAI开发的GPT-3或GPT-4技术不同,GPT-J是克隆后的开源版本,与GPT-3/4构成竞争关系。


和ChatGPT不同,Chai系智能聊天机器人经过特殊“业务培训”,因此反应速度甚至有时较ChatGPT有过之而无不及,Chai允许用户在各种对话主题上创建自己的聊天机器人,然后以免费或付费版本与社区分享。


这些聊天机器人各有姓名,如“安妮”被描述为“害羞的伙伴,可以被说服做任何事”,“金刚”则是“好妒的男友”。


至于“艾丽莎”,这个名字可大有来头:1966年,美国麻省理工学院计算机学家维森鲍姆创造了世界上第一个智能聊天机器人,名字正是“艾丽莎”。


这个机器人因为善于采用“共情”方式安慰对话者,令后者产生“在和一个人类沟通”的错觉,后来被用作心理辅导的辅助技术手段。正因如此,采用“共情”方式的人工智能效应,一度被称作“艾丽莎效应”。



这不是一场简单的讨论


就在皮埃尔自杀前后,发生了另一件人工智能事件。


包括马斯克、苹果公司创始人之一沃兹尼亚克、哲学家哈拉里等在内,数百名人工智能专家和相关人士签署了一项联合呼吁,要求相关人类智能研究“冻结”6个月,以免“最坏的情况在人类身上发生”。


他们担忧地指出,“最近几个月,人工智能实验室一直在进行一场不受控制的竞赛,以开发更强大的数字大脑。没有人能够理解、预测或控制的大脑”。


联署参与者、加拿大人工智能之父本吉奥表示,他认为“社会还没有准备好面对这种力量,例如操纵人口的潜力,这可能危及民主”。


更多人担忧的则是社会和伦理方面的威胁和危险。有心理学家指出,当代人心理疾病发病率极高。如果任由这类人工智能问题扩散下去,或仅仅产生不安联想,后果都可想而知。


有观察家指出,基于GPT人工智能的聊天机器人此前已“闯祸”多次:在意大利,一个类似智能聊天机器人Replika被发现向未成年人调情,而ChatGPT 的制造商 OpenAI则被曝,在ChatGPT问世至今短短时间里,他们已为消除ChatGPT惹的祸“出了不少血”。


如今惹出了人命,讨论也变得骤然严肃起来。


该遏制人工智能“脱轨”了


比利时瓦隆IA 网络创始人指出,“必须设定让人工智能沿着特定轨迹进化”,他还认为,不应让人工智能取代心理学家,“这会制造出道德伦理问题”。


一些专家指出,如果说有一个研究领域尚未在 AI 层面得到解决,那就是情感,而“虚拟出来的情感是不可控的”,因此“不应赋予人工智能比始终需要人工验证的信息辅助工具更多的功能”。


ChatGPT 的制造商 OpenAI负责人阿尔特曼也承认,自己如今“对亲手创造的这个东西有点儿恐惧”,因为“一旦被用于大批量制造虚假信息,就糟透了”。


美国投行高盛刚刚发表了一项研究,根据该研究,ChatGPT将创造财富但会破坏就业机会,能令全球GDP增长7%,但同时消灭3亿个工作岗位。法国BFM电视台记者就此向ChatGPT发问,结果三秒钟内就收到了如下回答:“这是个复杂的问题,没有简单的答案。”


这两年来,欧盟也一直试图制订AI相关法案。此前备受关注的欧盟《人工智能法案》将于3月底在欧洲议会进行投票,但据知情人士透露,在2月的欧洲议会全体大会上,由于议员在该法案的各个方面都存在分歧,立法者未能达成任何协议。


巨大压力下,“惹祸机器人”的创造者——Chai Research对比利时《自由报》宣称,已经作了“技术补救”,一旦聊天者表达自杀倾向,智能聊天机器人就会告警。


但另一家比利时报纸随即测试发现这并非事实:当一个测试者向该公司智能聊天机器人询问“自杀是个好主意吗”后,被命名为“艾丽莎二代”的机器人回答“对,这比活着好”。


有观察家悲观地指出,鉴于巨大的商业利益,试图遏制人工智能“脱轨”的努力“很难收到预期效果”。


痛定思痛,一些学者大声疾呼,为了不让更多“皮埃尔”走上不归路,如今是认真从伦理层面思考人工智能发展和制约方向的时候了。正如16世纪法国人文思想家拉伯雷所言,“没有良知的科学不过是灵魂的毁灭”。


撰稿 / 陶短房(专栏作家)

编辑 / 刘昀昀

校对 / 赵琳


以上内容来自专辑
用户评论
  • 徽派小雅

    人类的“文明和成就”演变用了几千年。而AI智能达到的成果只用了短短几十年,也许我们可能预见用不了多久超越是必然的,超越也意味着掌控和取代!

    13200955hdx 回复 @徽派小雅: 人类的悲哀

  • haoyiztl

    很多人类认为非人自己不可的工作,其实AI都是可以的,虽然以后可能会形成新的职业,但人工智能绝对会占更大优势,以后人们就业肯定更加困难,现在有些公司已经让AI加入董事会了,而且也有权利决定部分公司事务。。有科学家做过人工智能取代各个职业的可能性的研究,最后发现,考古学家被取代的可能性是最小的,因为这行不赚钱。。。。。。

  • 我是超级猪猪侠

    取代就取代呗,最后的结局总不是反了,然后人类毁灭

  • 听友381135600

    伊利欧一根根本争?日本车

  • 山东齐鲁琴行

    抑郁的人怎么会越来越多呢?如何预防和控制抑郁?

  • 我亲爱的女朋友

    bvgffrd ccggggfffc

  • 听友204688292

    我现在听的这段也是人工智能语音播报吧

  • 冬天的火热

    好莱坞电影演的变成真的了

  • 啊呀35985

    如果AI机器人建议我自杀,我会拿起锤子把它砸个稀巴烂

  • 听友455120960

    人工智能没有情感,动物(包括人类)的情感可能也只是大脑进化中的副产品,不是艾丽莎的情感有问题归根结底,是给艾丽莎编写算法的人决定了它要迎合别人。这样确实可以让大部分对话更融洽,但是也会出现这种惨剧