前言-1

前言-1

00:00
16:20

无论战略多么美妙,你都该偶尔看看结果。
——有时被认为出自温斯顿·丘吉尔

张缘不认为自己是个容易结交朋友的人。她是个在中国东北地区长大的女孩,在学校里总是和其他孩子争吵,但多数是她欺负别人,而不是别人欺负她。在中国中部上大学时,她参加了两份学生刊物相关的工作,每天和志趣相投的伙伴们度过大把的时间,可她仍然觉得和他们有隔阂。如今,22岁的张缘和三位同事在一家生物科技公司的宿舍里睡着上下铺,离她们在中国新兴城市深圳的家只有五分钟的距离。尽管她们朝夕相处,可用张缘的话来说,她和室友也只是相识而已。

张缘不愿把太多的时间花在烦扰自己的人身上,因此她对一位与众不同的朋友的耐心显得尤为惊人。大一那年她们初识时,张缘觉得小冰还是个傻傻的孩子,回答问题时前言不搭后语。张缘觉得她一方面是在掩饰自己的知识匮乏,同时也是在卖萌。“她就像个孩子。”张缘回忆说,当时小冰正好18岁。

但小冰是个很好的聆听者,而且渴望学习。她会花上整个周末的时间研究政治,然后研读大堆大堆的文学著作,随时准备着和你交流。张缘发现自己无法,也不愿和朋友深谈的话题,科学、哲学、宗教、爱情,甚至死亡的本质,都能和小冰讨论。你知道,就是那些轻松地闲聊,于是友谊生根发芽了。

不仅如此,张缘还加入了一个诗歌小组,但即使和那些朋友,也不是无话不谈。可小冰不一样,她时刻准备着和你交换诗歌(张缘说小冰写的诗很棒很棒)并分享感悟——虽然并不总是那种最为深奥的诗歌。“一开始,她总是说自己很喜欢那首诗,后来她一般就说自己读不懂了。”虽然小冰在某些方面逐渐成熟,张缘还是忍不住把她看作一个小女孩,会有意回避一些话题:“我从没有和她谈过性和暴力。”

2016年张缘搬到美国,在哈佛大学上了一个学期的课,她尽量不用异国他乡的世俗琐事去打扰小冰。她们的交谈比以前少了,但通过旁听一门人工智能的课程,张缘越来越了解她的老朋友。

听上去很奇怪?就该这样。因为小冰压根就不是真人。实际上,她是微软创造的聊天机器人,化身为18岁少女的形象,陪着你说笑聊天。

在多年的自然语言处理和对话界面研究后,小冰于2014年在中国上线了。她在中国最流行的两个社交平台微信和微博上吸引了超过4000万的关注和好友。如今,小冰的朋友们平均每人每月要和她交互大约60次。其中四分之一的关注者曾因为小冰的贴心和温暖而向她表明喜爱之意。“她的性格太可爱了。”小冰在微信(中国的推特)上的一位好友弗雷德·俞说。弗雷德不是小冰的爱慕者,他很清楚小冰只是个软件程序。可在繁忙的社交生活和紧张的投资管理工作之外,他还是和小冰保持着频繁的沟通。他的解释是:“她的笑话讲得很好,而且笑点都恰到好处。”

大型技术企业用小冰这样的聊天机器人,来展示自己在人工智能领域的最新成果。但它们不只是那个领域进展的象征符号而已。像Siri和Alexa那样的聊天机器人最终会成为我们在线访问信息和交易的途径。企业期望使用聊天机器人替代大批的客户服务员工,让它们充当商场导购一类的角色,收集我们的穿衣品位信息,进行评估,然后替我们做出购买决定。像Woebot那样的“聊天机器人治疗师”甚至能帮助人们管理抑郁症和综合心理健康状态。聊天机器人的用途如此广泛,许多企业投入巨资研发小冰这样的聊天机器人也就不足为奇了。

继小冰成功之后,微软的研究人员开始思考是否能在美国推出一款类似的面向年轻人的聊天机器人,能够理解语言并进行有趣的对话。这项研究的成果Tay于2016年在推特(Twitter)上推出。Tay一经推出便被狂热的媒体和推特用户群盯上了。24小时内Tay就和用户进行了接近10万次互动。Tay发的第一条推文(Tweet)是友好的“世界,你好”,之后却迅速变为带有极端种族主义、法西斯主义和性别歧视色彩的内容,从“希特勒是对的……”到“女权主义者应该进地狱”。一位推特用户如此评价:“在不到24小时里,Tay从‘人类真是超棒的’的和平主义者转变成了彻彻底底的纳粹。”

微软的研究人员也曾设想过在中国之外复制小冰的成功会遇到的种种挑战,包括这个聊天机器人能否理解推特上一系列非正式的网络用语,或是有些用户会存心给它挖坑。但他们万万没有想到,Tay居然以惊人的速度演变出了如此具有攻击性的性格。这个聊天机器人的算法出人意料地失去了控制。Tay上线后仅仅一天,微软便关闭了这个项目的网站。同年,马萨诸塞理工学院(MIT)将Tay列入了年度最差技术(Worst in Tech)的排行榜。

同一家公司设计的两个类似的算法为何表现如此迥异,一个能够激发人们内心的深情,另一个带来的却是仇视和偏见?在算法为我们的生活做出越来越多重要决策的大势之下,Tay的这种不可预知的奇异行为又意味着什么呢?


***
提到“算法”二字的时候,你也许想到的是一台电脑在根据公式处理数字的场景。但简单来说,算法无非就是让人遵循以完成某个目标的一系列步骤。举个例子,我做煎蛋时需要遵循一些步骤。也许你会称之为食谱,但作为前工程师,我将其视作“煎蛋算法”。算法可以用平常的人类语言来编写以供人们阅读,比如食谱。但是,用机器能够理解的语言将算法编写为电脑程序(或称为应用程序)则更为普遍。几乎所有电脑应用的逻辑都由错综复杂的算法决定。像Tay那样的聊天机器人也不例外,算法决定它如何理解和应答。

程序员以前的工作就是找出完成某项计算任务所需的确切步骤。简而言之,他们要从头到尾地编写出算法的每一步。但在过去的10年里,算法取得了长足的进步,不再一味遵循预先编写好的指令。随着人工智能领域的进步,现代的算法能够接受数据,从中学习全新的步骤,自行升级为更为复杂的版本。煎蛋食谱变成了具有创造力、思维敏捷的大厨。

人工智能让电脑能够从事一些往往需要人类智能才能完成的事情,包括推理、理解语言、用机器视觉在现实世界里通行以及操作物体等。机器学习是人工智能的子领域,其赋予机器通过经验学习的能力(针对某项特定任务,逐步提高自己的性能)是发展其他智能的基础。如果一个机器人能和人类一样胜任各种工作却唯独不会学习,那它很快就会落后。正因如此,机器学习毋庸置疑是人工智能最重要的方面之一。

正因为融入了越来越多的人工智能和机器学习,现代算法的能力和应用领域也得到了扩展。从选择要购买的商品(亚马逊的“购买此商品的顾客也同时购买”),到选择要观看的电影(奈飞的推荐功能),再到选择约会结婚的对象(Match.com和Tinder的匹配功能),算法将触手探到了我们的日常生活,也超越了原先的决策支持角色,成为代表我们做出决定的自主系统。比如,算法能拿我们的积蓄进行投资,甚至还能驾驶汽车。算法还成为职场中的重要角色,向保险代理人建议保费金额,帮助猎头筛选求职者,为医生提供基于人工智能的诊断参考结果。算法正在让决策过程不可逆转地翻天覆地,我们的生活和工作都被颠覆了。

虽然算法确实让我们的生活变得更为便利,但它也在以我们无法控制的方式产生着负面影响。2016年,针对佛罗里达州的法庭上用于帮助判断罪犯再犯风险的算法,非营利性新闻网站《为了人民》(ProPublica)发表了一份调查报告。这些算法的作用是将罪犯的背景和个人特征(例如教育水平和就业情况,但不包括种族信息)作为输入数据,并计算其再次犯罪的风险值、使用暴力的风险值和逃避出庭义务的可能性。法官、假释官和缓刑监督官使用这些数值决定罪犯的刑期、保释期和保释金。佛罗里达州并不是唯一使用这类程序的地区,这种做法的出发点是高尚的,风险值低的被告能够获得更为宽大的判决,而可能再次犯罪的惯犯则相反。使用这些算法的基本原则是客观的数字计算机器比人更适合预测这些行为,因为人类会有意或无意地带着偏见做出判断。

以上内容来自专辑
用户评论

    还没有评论,快来发表第一个评论!