如果算法的创作者都难以理解算法是如何做出决策,难以管理算法的影响,那普通用户又能抱什么希望呢?部分原因在于这种技术实在是太新了,另一方面则是我们对于算法如何运作的理解是错误的。就和监管部门关注源代码一样,我们中一些人相信算法的行为完全出自于那些源代码,另一些人却相信基于人工智能的算法超出了开发者的控制范围,什么事都做得出来。两种观点都是错误的。对于负责任的公民、消费者和专业人员而言,对自主算法的运作原理只拥有模糊的概念已经远远不够。我们也许不需要理解现代算法运行原理的精确细节,但我们都需要有大局观。从近年来算法的演变,到用于训练算法的数据,再到算法对我们日常生活日益增长的影响,我们需要对这些现象有更好、更深刻、更精微的理解来武装自己。这本书就将帮助你做到这点。
在我的研究中,我探索过算法对个人抉择的影响,以及更广泛的对社会、对企业的影响。我研究过媒体和零售网站上的个性化推荐对我们消费的商品和媒体种类的影响。我也研究过人们为何在某些场合会信任算法而在另一些场合却又不信任。我在很多公司开发部署过自己的算法。2005年,我和宾夕法尼亚大学的学生一起创办了一个名为Yodle的网络营销平台,为其开发的算法最终为大约50000家小企业的广告和营销决策提供了支持。之后,我为一家技术型初创公司Monetate提供顾问服务,协助开发的A/B测试算法[注],在一些领先的在线公司用于制定网站设计方面的决策。
在我的职业生涯中,我目睹了决策支持算法的惊人效果,所以首先要说明的是,我相信将算法用于决策支持的巨大潜力。与此同时,我也曾见过算法不时会意外地变得无法预测,尤其是当用人工智能来实现自主的决策制定时。这不免在一些认为算法并不完美、算法带有偏见的学者和民众间敲响了警钟。但在我看来,担忧背后最大的原因并不是算法带有偏见,人们也存有偏见,而且一般来说,设计越好的算法越不带有偏见,但比起人类的偏见来说,我们更容易受到算法偏见的影响。这有两个原因:第一,大型技术平台,例如谷歌和Facebook,部署的算法能够同时触及数十亿人,造成的影响规模远远超过人类决策者的偏见能够带来的伤害;第二,因为我们倾向相信算法是可预测的是理性的,所以我们更容易忽视算法带来的众多副作用。
我写这本书的主要目的就是向生活和工作受到决策算法影响的读者解释我的研究成果和实践所得。我对读者群的定义很宽泛,这正是问题所在:大多数人对于正在或将要对其生活产生巨大影响的技术几乎一无所知,实际上,他们甚至都没有意识到这是他们知识储备中非常重要的欠缺。之后,基于我个人设计和研究算法的经验,这本书会提供对于算法使用的“用户指南”。这一部分中,我将解释算法的运行原理,以及算法的演变——如何从需要程序员逐字逐句开发逻辑的系统,成为人工智能驱动的现代系统,有能力独立学习大量逻辑。我也将讨论人类行为和算法行为间惊人的相似之处和关键性的区别,不但能帮助你更好地理解决策算法相关的风险,也会挑战你对算法的大多数基本假设。
我还将以同等篇幅提出一个框架,以此来保证算法服务于我们,而不是以我们或者算法设计师们所无法完全掌控的方式来接管我们的生活。这本质上是套“权利法案”,用来限制算法的能力,讨论我们作为用户如何对其究责。算法应该表现出的一定的透明度、解释性和控制水平,这些都将在这套框架中得以明确和澄清。这套框架适用于生活中和工作中使用的各种算法。提出算法使用上的“权利法案”也许听上去很严肃,但我并不是在主张由政府加强对算法的管制,而是对一些领先的学术组织和计算行业的企业所宣传的原则加以澄清。对这些想法的讨论,我将分为三个部分。首先,我会讨论算法决策的众多副作用,解释我相信风险已经不会更高的原因。其次,我会解释算法的运行原理,以期对算法变得不可靠的原因提供更深的理解。我还会表述我的“先天和后天”观点,透过此观点评估现代算法。最后,我将探讨我们对算法的信任来自何处,以及我们将如何驯服不可靠的算法。
你将了解到一位没有医学背景的信息科学家如何成为雷诺氏综合征(一种神秘的血管神经功能紊乱)治疗方法发现者之一。你将发现一个18世纪的“自动”象棋程序在现代计算机发明之前击败了本杰明·富兰克林和拿破仑·波拿巴。你将了解到谷歌的AlphaGo,一个基于人工智能的程序会下策略复杂的围棋,用其编程者都无法理解的棋术,击败了围棋世界冠军李世石(Lee Sedol)。你将探索亚马逊和奈飞推荐商品和电影的神奇黑盒。你还将了解为何谷歌决定在无人驾驶原型车中不安装方向盘会引起工程师的激烈争论,为何这一点要么成为谷歌最具创意的决定之一,要么成为谷歌在无人驾驶汽车市场逐鹿之战中的阿喀琉斯之踵。
还没有评论,快来发表第一个评论!