在中国讲学期间,皮埃罗深深感受到了人工智能带来的“阴影”,听众们问的最多的问题是:“电影《机械姬》(Ex Machina)中的机器控制人类的事情是否真的会发生?”或者“超人类智能是否会威胁生存?”
“我并不害怕人工智能,我反而害怕人工智能时代不能尽快到来”,皮埃罗每次都这样笑着表示。
值得一提的是,皮埃罗在人工智能领域有一段很长的履历。1983~1991年,皮埃罗一直担任意大利奥利维蒂公司人工智能中心的创始总监;1984年,皮埃罗先后在哈佛大学和麻省理工学院学习人工智能;1995年和1996年,皮埃罗作为访问学者在斯坦福大学人工智能实验室深造。他还曾在一家名为IntelliCorp的公司工作过,该公司是硅谷最早的一批人工智能创业公司之一。如今,皮埃罗在斯坦福大学讲授人工智能课程,出版过一本《智能的本质》(英文书名为 Intelligence is not Artificial: Why the Singularity is not Coming any Time Soon And Other Meditations on the Post-Human Condition and the Future of Intelligence,人民邮电出版社,2017年即将出版)的英文专著。
人工智能简史
我为什么不担心人工智能超越人类
我们先从让这个命题流行起来的奇点理论说起,奇点在硅谷都快成一种新的信仰了。埃隆·马斯克(Elon Musk)、比尔·盖茨,甚至斯蒂芬·霍金(Stephen Hawking)都公开表示了对人工智能的担忧。雷·库兹韦尔预测,机器智能会在不久的将来超越人类,创造出一种人类根本无法理解的超级智能。他预计,2027年,计算机将可以模拟人类大脑;2029年,计算机将能拥有和人类一样的智能;2045年,当机器人的智能超越人脑智能并可以自己繁衍时,奇点就会出现。
很多人相信奇点很快就会到来,也相信如果人类与他们生产的机器完全融合,如果人的智能能够完全转移到计算机上,奇点就能够让我们实现永生。这种“信仰”是建立在五个“信条”上的。第一,人工智能正在并已经产生卓越成果;第二,技术进步在不断加速;第三,技术正在创造超越人类的智能;第四,人类可以从比我们更聪明的机器中获益;第五,通过图灵测试的机器至少像人类一样聪明。《智能的本质》一书中解释了为什么我不同意这五点。
第一,对“人工智能正在并已经产生卓越成果”这一事实的验证。人们对人工智能总是过于乐观。1965年,伟大的数学家赫伯特·西蒙(Herbert Simon)曾写下:“20年内,机器将可以胜任人类可以做的任何事情。”这一天迄今为止还没有到来。
人工智能始于1955年[1950年,阿兰·图灵(Alan Turing)提出了机器能否思考这个命题,编程语言LISP的发明者约翰·麦卡锡(John McCarthy)在1955年提出用“人工智能”定义该领域]。最初,神经网络是最受青睐的技术,但是,我们的大脑有成千上万的神经元,要建造和模拟那样巨大的神经网络几乎是不可能的任务。
因此,神经网络很快被另一种被称为“基于知识”的技术所取代了。理解这种“基于知识”的人工智能最简单的方法就是弄明白信息和知识的区别。在一个基于信息的系统里,一定有一个包含问题答案的数据库。比如,当有人问:“谁是美国的总统?”或“罗马在哪里?”这个系统会从数据里查找出“奥巴马”和“意大利”。但是,如果有人问:“你认为下一任总统会是谁?”或者“亚特兰蒂斯(传说沉没于大西洋的岛屿)在哪里?”基于信息的系统就无法运转了。此时,就需要基于知识的系统来“思考”,这个系统需要利用所有已有的知识来“猜”出问题的可能答案,就好像我们人类那样。
这种基于知识的人工智能一直流行到20世纪90年代。实际结果却一直不尽如人意,因为给人类的庞大知识体系编码是一件无比困难的事。因此,人工智能在那段时间备受冷落,被认为只不过是不切实际的理论研究而已,人工智能进入了“冬天”。
我认为人们重新开始相信“人工智能”是从2011年开始的,这一年,IBM的超级计算机“沃森”(Watson)击败了哥伦比亚广播公司著名智力竞赛节目《危险边缘》(Jeopardy)的人类冠军,人工智能一时名声大噪。
2012年,吴恩达(Andrew Ng,现为百度首席科学家)领导的“谷歌大脑”项目,让机器系统能够以非常低的错误率在海量图像中识别猫,2012年也因此被我们看成人工智能领域真正的里程碑。
这是如何实现的呢?图片网站ImageNet(http://www.image-net.org/)是一个被人们贴好标签的海量图片数据库,每年,来自全世界的人工智能团队都会进行图像识别竞赛,并根据错误率打分。2012年,一种新的技术“深度学习” [通常来说,大家认为深度学习的观点是杰夫·辛顿(Geoffrey Hinton)在2006年提出的,他在神经网络领域进行了长达30年的研究]使得图像识别的错误率迅速下降到一个很低的数值,并在之后不断下降,甚至接近人类的水平。
2014年,斯坦福大学以人工智能实验室主任李飞飞(Feifei Li)为主导的科学家团队开发了一个机器视觉算法,该算法能够通过对图像进行分析,然后用语言对图像中的信息进行描述。在此之前,其实已经有可以识别人脸的软件算法,但是斯坦福大学的系统(同时期的项目还有雅虎的Flickr)可以识别出图像中的场景,比如两个人在公园里玩飞盘等。
可以说,杰夫·辛顿等人在基于神经网络的基础上提出深度学习后,人工智能才再次流行,因为它确实能够识别人脸、声音乃至场景了!
人工智能近年来引人关注的还有“图灵测试”的突破。1950年,阿兰·图灵在一篇论文中提出了机器能够骗过人类,让人类误以为机器是人类的想法,这是“图灵测试”的本体。图灵认为,如果30%的被测试人都不能区分放在黑箱子里的机器到底是人还是机器时,这台机器就通过了图灵测试。
2014年6月7日,聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的“2014图灵测试大会”上冒充一个13岁乌克兰男孩骗过了33%的评委,通过了图灵测试。这并不是计算机软件第一次成功骗过了很多人,但这是人类第一次可以在测试中随意提问任何问题。
2016年,谷歌的AlphaGo(阿尔法围棋)战胜人类围棋冠军带给世人一阵惊呼。
人工智能目前的局限
这些“成就”真的非常了不起吗
和早期电脑能够做的事情相比,机器今天确实可以识别语音、人脸、图像乃至场景,识别一只猫确实让人印象深刻。但总的来说,我对人工智能这些年取得的成就的看法与那些新闻头条正相反。
在说AlphaGo之前,先从人工智能可以识别图片上的猫这个“大新闻”说起,谷歌的团队需要将16 000个计算机处理器连接起来,构建一个超大规模的神经网络,还需要让它事先看过海量的猫的图片,结果是,它对猫的判断准确率实际上比小孩还低。再对比一下,一只老鼠要花多长时间去识别一只猫呢?
美国国家航空航天局的火星探测器“好奇号”(Curiosity Rover)是目前最高端、最昂贵的机器人之一,自2012年8月降落火星开始探测任务以来引来大量媒体关注。但是,2013年,美国国家航空航天局的一个行星科学家克里斯·麦凯私下里跟我感慨,“‘好奇号’要花200天做的事情,人类研究者一个下午就能轻松搞定”。
再比如,2014年,日本研发出一个骑自行车的机器人primer V2,很快就在媒体上火了起来。各大媒体纷纷对这个机器人能够像人一样灵活地拐弯、双脚着地刹车、举手与人说“嗨”等惊呼不已。其实,这有什么稀奇呢?看起来像人的机器模仿人做的事情,古时候就有这种发明了,尤其是中国的古时候!
大部分这些进步其实都是围绕“识别”做文章,也大都发生在神经网络领域。神经网络的局限性是,它背后是“模式匹配”的运作原理,真正的含义还是“识别”,这意味着要很好地利用基于神经网络的深度学习技术,你需要把你所有的问题转换成一个“识别”问题,这不是不可能,只是让人感觉有些怪,比如,你需要把谁将是下一任美国总统的问题转换成一个模式识别问题。
神经网络用的是数据统计方法,只有已经具备了很多案例,然后再“猜”下一个案例时才能良好运行。翻译软件就是个很好的例子,它会自动翻译不是因为它真的掌握了这门语言,而是每当有人给出新的句子,它就从成千上万已经被别人翻译好的数据库里“学习”,根据已有的翻译来“猜”这一句的意思,意思就是“识别”出最有可能的已有翻译。
统计的方法能产生一个合理的结果,但它永远不知道为什么。这也是为什么机器由此学习到的技巧不能应用到其他领域。当今世界最著名、最具影响力的哲学家之一约翰·塞尔(J.R.Searle)一直坚持认为,不管机器看起来能做什么,那都不是它做的,即机器根本意识不到自己做了某事。塞尔在1980年用“中文书”的例子来说明,如果你给我一本包含几乎所有关于中国问题的答案的书,然后你用中文问我一个问题,我可以从书中找到正确的答案。但是,我仍然不懂中文。也就是说,当我用中文回答你时,我实际并不是用中文回答你。
人工神经网络的应用也是如此:计算机可能会找到正确的答案,但它不知道为什么。翻译软件可能会正确地将英文翻译成中文,但它仍然不懂英文,也不懂中文。
也就是说,我们可以教会神经网络识别很多东西,却无法教会它们理解这些东西的含义,更谈不上让机器具有人类敏锐的洞察力。比如,机器可以识别出“有人在商店里拿了一件东西”,但他们什么时候可以识别出“有人从商店里偷了一件东西”?但人类可以通过看同样的照片分辨出小偷在商店拿东西和顾客正常购物的区别,这种能力我们根本无法训练人工神经网络来实现。
再比如,自动翻译软件可以语调不改地翻译出“这里有炸弹”,而懂外语的翻译者只要看一眼这个句子,就会脸色大变,马上大喊“所有人快出去!”
神经网络之所以在20世纪60年代被遗弃是因为当时没有足够快的电脑,随着电脑的普及和运算速度的不断提高,如今的神经网络才有能力来执行大规模计算。某种程度上,“深度学习”是被便宜的计算能力成就的。当然,神经网络的算法也有很多进步,杰夫·辛顿和其他研究者不断在开发更加高效的算法,但如果没有成千上万的计算机来完善神经网络,这一切都将无从谈起。
号称在电视益智节目中打败人类冠军的IBM计算机沃森需要85 000瓦特的能量。谷歌AlphaGo确实战胜了人类围棋冠军,但是鲜有人注意到,AlphaGo需要消耗440 000瓦特的计算能量。即便如此,除了会下围棋,AlphaGo还会做什么呢?相比之下,人类大脑将惊人的计算能量装入一个狭窄的空间,只使用了20瓦特的能量,而且,人类的大脑还能做其他数不清的事情。如果有人能使用20瓦特的能量制造出一个能同时做两件事的机器人,我才真的觉得了不起,才是不可思议的大进步。注意不能作弊,不能把扫地的机器人和做三明治的机器人放在一个大铁盒里,就宣称机器人能做两件事了,我们人类可没有长出一百万个大脑来做一百万件事情。
靠大量计算能力取得的成果称不上多有创意,有时候我开玩笑说这是“摩尔定律的诅咒”。过去在人工智能领域的科学家不断有很多有趣的、富有创造性的想法涌现,因为当时的电脑运算速度慢、体积大且价格不菲,要想让它变“智能”必须绞尽脑汁地想尽各种方法。
我对此体会尤其深刻。20世纪80年代我们做人工智能研究时,哪怕非常简单的“推理”都需要庞大且贵重的机器,有时甚至需要一些专业机器,比如LISP机(20世纪70年代进入市场并广泛应用的人工智能机,一种直接以LISP语言的系统函数为机器指令的通用计算机),然而很多实验依然很难开展,尤其是在神经网络领域。但如今的人工智能创业者可以使用计算能力快、价格也便宜的机器,可以将很多机器并联起来测试非常复杂的模型,他们不需要多有创意就可以取得很大的进展。
如今的超级计算机能用很简单的方法迅速找到问题的答案。实际上,靠搜索引擎基本上就可以找到大部分问题的答案,简单到人们已经不用思考,不需要有多少创意。在某种程度上,这种强大的计算能力正在让人们失去用更有创造性的方法完善智能机器的动力。而且,即便这种“暴力破解”(brute force)的方法,也很快要面临瓶颈了,“摩尔定律”正在面临挑战,电脑计算能力的提升并不会像人们想象的那样继续一路高歌猛进。
深度学习如今变得如此流行,AlphaGo的辉煌战绩也是深度学习成就的。但是,如果认真分析深度学习的这些成功案例,你会意识到,它们的成功除了依赖大量的高速计算机处理器,还依赖海量的大数据,即人类提供的学习样本。成功识别猫的故事是在ImageNet这个图片大数据库之后才成为可能的,AlphaGo的成功也是基于收集整理了人类围棋大师们积累下来的成千上万的着数。
总的来说,“深度学习”本身没有问题,我只是不确定放弃基于知识的方法是对的,就好像过去我一直反对放弃神经网络。比如,使用“深度学习”的方法来猜谁是下一任美国总统时,根据之前的美国总统的名单并不能猜出答案。人们的常用方法是分析所有正在竞选美国总统的政治家的情况,然后花上好几个小时乃至好几天来争论谁会是下一任,我们此时的推理是就基于知识的。
然而还有常识问题,我们日常做的大部分事情都是不经过思考的,天热了就少穿点衣服,下雨了就拿起雨伞,在别人伤心的时候说安慰的话,在别人开心的时候微笑等,很多认知和行为都已潜移默化为常识的一部分。而很多动物行为能把人逗笑恰恰是因为它们缺乏常识,比如小猫对着镜子里的自己又抓又咬等。但是,要将这种我们人类看来是小孩子都知道的事情教给机器是难之又难的。
显然,和人类的大脑相比,我们离制造出真正智能的机器还差十万八千里。我们制造出的充其量是越来越好的电器产品而已,洗衣机、电冰箱、微波炉、下象棋的深蓝、下围棋的AlphaGo……它们都只能做一件事情,只不过比人类做得更好更快而已。
技术到底进步了多少
技术进步在不断加速。这是奇点理论很关键的一个支撑点。当今的各种技术进步如此之快,且还在不断加速,机器会越来越智能和强大。果真如此吗?
我们过去就已经有比今天更令人震惊的技术进步了。1880~1915年,汽车、飞机、电话、收音机、录音机以及电影逐一被发明出来。突然之间,人们就可以“飞”了,就可以跟千里之外的朋友或家人说话了,人们可以用录音机欣赏已经逝世的歌手的音乐了……这些对当时的人们来说,肯定像魔法一样神奇,其实这些发明都是在短短30多年里出现的。而同一时期,量子力学和相对论也相继问世。
当然,技术一直在进步,但你真的确定今天的技术相比过去进步了很多吗?1886年,德国人卡尔·本茨(Karl Benz)造出了世界上第一辆汽车,47年后(1933年),美国已拥有2 500万辆车,整个世界已大概拥有4 000万辆车。1903年,怀特兄弟发明了第一架飞机,在第一次世界大战(1915~1918年)的短短三年里,人类已建造了超过20万架飞机。47年后(1950年),全世界已有3 100万的人乘坐飞机。
1969年,人类首次成功登陆月球,47年后的今天,有几个人成功被送到其他星球了呢?1969年,超音速飞机协和号被发明出来,不幸的是,它甚至都没能继续运行到今天(协和号飞机1969年研发成功,1976年投入商业运行,2000年7月25日,协和号客机班机AF4590发生爆炸后,所有协和号飞机受此影响,于2003年退役)。再来看下人工智能,1969年,斯坦福国际研究所(Stanford Research Institute,SRI)研制了移动式机器人沙基(Shakey),47年后的今天,又有多少人拥有一台机器人呢?
我甚至不确定今天的大部分技术进步相比之前有什么特别。当然,我们的生活因为技术发生了很多改变,但改变不等于进步。有时候一些看似重大的改变只是市场需求创造出的一些新时尚,或只是商业模式的改变而已,这些改变也许是“进步”,然而,它们主要只让少数几个大公司受益。到底是谁的进步?真的是人类社会的技术进步吗?
比如,谷歌是目前人工智能领域最大的一家公司,它研发的无人驾驶汽车真的是很了不起的进步吗?确实能让人类的交通更安全吗?
相反,它恰恰说明了高科技公司跟现实世界的距离有多远。
首先,如今很多机器的“智能行为”其实是由于人类已经将机器周边的环境改造得近乎完美,即使白痴也能在那样的环境中工作。2014年12月,谷歌宣布第一部具备完整功能的无人驾驶原型汽车已经制造完毕,并于2015年夏天在加州的公路上完成了测试。当我们为无人驾驶的高科技和人工智能的进步欢呼时,鲜有人关注到的是,无人驾驶汽车只能在高度优化的道路上运行,加州极其优良的道路条件、GPS、雷达、监控装置等组合在一起,只要是正常人都能轻松地驾驶。
其次,交通问题是世界上每个国家的主要问题,交通堵塞的问题从加勒比岛到北京都是一样的。无人驾驶车一定会加剧交通堵塞,而非减缓。因为今天不想自己开车的人也许明天就会买一辆无人驾驶车上路了。
几乎每次有人想要“最优化”驾驶过程都会导致更拥堵的交通。比如,你在旧金山至少可以通过四种服务来共享一辆车,这几家公司分别是City CarShare、ZipCar、RelayRides和Getaround。结果是,原来乘坐公交车和地铁的人们也纷纷开始用汽车上班了。优步(Uber)和Lyft在本就十分拥堵的路上又增加了上千辆车。“分享车”的初衷本是因为车是有价值的资产,不应该在闲置的时候被“晾”在车库里。但是,每一辆驶出车库的车都在增加道路交通的压力,并带来更多污染。
最后,无人驾驶车的支持者总是坚信它可以减少车祸,拯救生命。然而,2016年初,谷歌无人驾驶汽车向美国机动车管理局提供了无人驾驶汽车的最新报告。报告显示,其公司的无人驾驶汽车在14个月的测试中遇到了272桩意外事件,如果没有人类驾驶员随时待命准备接手,这些意外会发展得更严重。百度无人驾驶汽车也在2015年12月初完成了北京开放高速路的自动驾驶路测,但需要注意的实际情况是,它要求两个人坐在车内,一人负责随时接手,另一人负责监测车辆运行情况。
如果真的要减少车祸,火车、地铁和公交车等公共交通的安全性比汽车高多了,我们应该想办法让更多的人使用公共交通出行,而不是制造更多的汽车。
让人感慨的是,我们身处在一个社会学家们探讨媒体已经大大延伸了人们获得信息的范围的时代,结果却是,人们在车上装置了各种沟通、娱乐和电子商务等设施,汽车逐渐变成人们的第二个家,或者说生活的第二个中心。人们越来越热衷于将自动驾驶和各种电子装备都配置到汽车上,未来是不是会发展为我们将80亿人都放到路上,甚至包括老人和小孩呢?
那么,今天那些层出不穷的新发现、新成就到底是从哪里来的呢?简单来说,我们今天的大部分进步其实都源自过去的创意,今天能够实现无非是因为强大而便宜的计算能力。
我们一直在研发和改进能让机器人更好“识别”而不是“思考”的能力。这也是为什么机器人一直缺乏常识。如今机器人的灵活性确实有了极大的进步,那是因为传感器和电子产品的价格一直在下降,人们可以将大量的传感器内置到机器人的“手臂”里,直到它们的机械“手臂”能跟人类一样灵巧。
2015年电气和电子工程师协会(IEEE)在西雅图举行的国际机器人与自动化国际会议(ICRA)上,很多机器人挑战赛备受关注,如“类人类应用挑战”(创造人形的机器人来完成特定任务)以及“纳米机器人挑战赛”等。我最感兴趣的是亚马逊的机器人分拣大赛,它要求参赛机器人从事先准备好的货架上成功取下一些日常用品,并把它放到附近桌子上的篮筐里。测试的物品包括网球、笔筒、玩具和一些书籍,将这些物品成功移动到桌子上就会得到相应的分数,如果物品在移动的过程中出现掉落、损坏等情况则会扣分。
参赛机器人的手臂确实已非常精巧,参赛的RBO团队在20分钟内移动了12件物品中的10件,由此获得大赛一等奖。然而,与人类的效率相比,机器人仍差得很远,这也是亚马逊暂时不会使用这些机器人的原因。
加州大学伯克利分校的彼得·阿贝尔(Peter Abbeal)也展示了机器人折叠毛巾的视频,看起来确实很精彩。但是,仔细想下,机器人并不是真的在“叠毛巾”。人类在做同样的工作时会把湿的、脏的或有破损的毛巾放到一边,机器人可不管,它会把所有干的、湿的毛巾放在一起叠好。也就是说,叠毛巾这样简单的事情也有特定的情境要求,如果你没法理解到底是什么情境,即便你是世界第一的叠毛巾能手也会显得特别愚蠢。
此外,媒体宣传较少的仿生学有不少进步,它本身并不要求有多智能,却能极大地提升我们做事情的能力。
超人类智能早已存在
支撑奇点的第三个信条是“技术将创造超人类智能”。我想说的是,超人类的智能早就已经存在了,我们周围比比皆是。蝙蝠能在黑暗中以极快的速度避开障碍物;鸟类被赋予了神奇的“第六感”,在寻找迁徙地和预知灾难时有不可思议的能力;还有一些动物具有伪装的能力,能够改变自己皮肤的颜色……大部分动物都能够看到、嗅到、听到人类看不到、嗅不到也听不到的东西,它们在执行特定任务时的智能水平早就远远超过了人类。
此外,我们身边的很多机器早就能做人类做不了的事情。最简单的例子比如钟表,一千年前就被发明了出来,一直都在做着“计时”这件人类无法完成的任务。我不太确定奇点所说的超人类智能到底是什么,非人类智能与超人类智能又到底有什么区别?我们身边不是早就已经有了很多非人类又超人类的智能吗?
很多人也许会反问说,我们并不担心动物和其他早已存在的机器,是因为人类能够控制它们,但是机器智能有可能失控。
你确定吗?人类以为自己能够控制一只蝙蝠,事实是,所谓的“控制”经常等同于“杀害”。没错,我们同样也有能力杀死更强大的动物,但我不确定这就意味着我们比它们更聪明。难道狮子能杀死羚羊就意味着狮子比羚羊更聪明吗?
再比如钟表,人类真的能控制钟表吗?你确定不是钟表在控制人类?难道不是钟表在决定你每天何时起床、何时上班又何时下班的吗?人类确实设定了时间,但你同时也可以说是钟表“要求”人类来设定。正如我们在一开始谈论技术时提到的,一些哲学家很早就有了技术利用人类来进化的观点,比如我最喜欢的法国哲学家让·鲍德里亚。
再看奇点最让人害怕的地方:超级智能的机器能够控制甚至杀死人类。确实如此吗?
所有的技术都能杀死人类。强大的原子能量能杀死人类,变质或有毒的食物也能杀死人类,全世界每年的车祸更是不计其数,即便抽烟过度也有可能致命。每个人都有选择的自由,都可以在使用技术时权衡利弊。
即便是在日本福岛的核反应堆发生泄漏之后,我个人依然很喜欢核能,因为它是优质的清洁能源。当然,核爆炸能在很短时间内对人类造成巨大的损害,但我并不会因此就害怕核能。我更感兴趣的是,如何保证类似福岛这样的灾难不会再发生;我更感兴趣的是,如果灾难真的发生了,我们又如何利用技术迅速将伤害清除或降到最小。
害怕人工智能的人们还喜欢持有这样一种论调:猩猩永远不可能比人类更聪明,因为它们没有跟我们一样的大脑,但现在人工智能在做的事情是试图复制人类的大脑,今天我们可以复制小虫子的大脑,明天我们可以复制鸟类的大脑……总有一天我们能复制出一个智能等同人类的大脑,这个大脑就会再接着演化出智能远超人类想象的“超级智能”。
对此,我的看法是一样的。这个观点设定的前提是我们的大脑比所有动物的大脑都更强大、更聪明、更智能。事实却是每种动物都有特别擅长的领域,很多种动物的大脑都能处理人类处理不好的事情。比如,有些恐怖分子打着“上帝”的旗号把自己变成自杀式人肉炸弹,自取其亡的同时还杀死了很多同类,却从心底坚信自己由此可以进入“天堂”,你确定这种行为比猩猩更聪明吗?我可从来不认为猩猩会像人类这么蠢!
我们认为自己的大脑比动物更优越无非是因为我们有能力杀死它们。在杀害动物和破坏环境这一点上我们确实很擅长。几乎找不到任何一种像人类这样热衷于杀戮其他动物和不断破坏环境的物种了。如果人工智能真的在复制人类的大脑,那它一定也会复制一个同样热爱杀戮和破坏的大脑。
所以,我实际上希望人工智能不要简单去复制人类的大脑,能不能去创造一个更好的呢?或者说,我希望人工智能可以去创造一个“最好的大脑”,一个能够向所有物种学习它们最好一面的大脑。我确定想要一台能够在黑暗中自由飞行,又拥有超强嗅觉的机器,我可不想要一台以上帝的名义将自己变成自杀炸弹的机器。
总之,在很多情况下,我都宁愿一台机器表现得更像大猩猩,而不是更像人类。我希望人工智能可以让世界更加安全、干净和美丽,而不是造出更多重复人类已有错误的机器来。
人类智能的退化才值得忧虑
支撑奇点理论的第四点是,“人们可以从比我们聪明的机器中获益”,即达到永生。而在我看来,人工智能的发展让我更担心人类智能的未来,而不是担心机器智能的未来。
图灵测试提出的问题是“什么时候机器才能和人类一样聪明”?我总是开玩笑说,要达到这个“临界点”有两种办法:一种是让机器更聪明,另一种则是让人类变得更傻!如果机器变得稍微聪明了一些,而人却变得比以前蠢多了,那我们当然很快就会拥有比人类更聪明的机器了。
这种危机正在上演:不是我们在创造过于聪明的机器,而是我们在创造更加愚蠢的人类。人们不断制造着让自己变得退化、多余乃至愚蠢的工具。事实上,很多高科技的项目不是依赖更聪明的技术,而是依赖更傻的用户。这些项目不断要求我们变得跟机器一样,说着一门“机器语言”,表现出机器才有的行为,以便跟我们周围越来越多的机器互动。
“自动化”的真实含义是什么呢?通常情况下,可以被“自动化”的工作往往要求用户接受一个质量更低(而不是更高)的服务。你周边的一切自动化程度越高,意味着你越是需要像个机器一样跟环境互动。
我看到的不是机器变得更聪明了,不是它们在努力学习和理解人类的语言。恰恰相反,是人类经常为了得到自动化的机器支持,已经习惯了像个机器一样说话,大多数时候人们连话也不用说,只要敲击键盘就可以了。
大多数电话或网站首先会要求用户输入一系列数字(账号、密码),因为我们是在跟机器对话,机器能够执行任务不是因为它们使用了人类的语言,而是因为人类使用了机器的语言。形形色色的规则、规章制度也正在不断将我们变成机器,我们必须遵守冗长呆板的顺序才能满足哪怕很简单的需求。
当我们谈论人工智能的时候,我担心的是,人类朝机器进化的速度比机器朝人类进化的速度快多了。这也是我为什么不担心奇点,却担心现在的人们因为技术变得更蠢而不是更聪明。比如,智能手机可以让你更快更好地做很多事情,但很多人完全浪费了它的潜能,大多数时候他们只是用它来刷微信朋友圈。
支撑奇点理论的第五点,“通过图灵测试的机器至少像人类一样聪明”,确实如此吗?
图灵测试并没有对谁应该是评委做出界定。英国皇家学会举行的“2014图灵测试”大会上,按照大会规则,某台计算机被误认为是人类的比例超过30%,那么这台计算机就被认为通过了图灵测试。结果,33%的英国皇家学会的评委都被计算机成功骗过了。如果将英国皇家学会的评委换成其他人呢?有没有可能换成一批比之前更聪明的评委呢?我们需要用更好的办法衡量机器的智能,整个图灵测试的定义其实是非常含糊的。
人工智能的未来是“增智”
人工智能的未来到底会是什么
人工智能是一种非常有用的技术,仅此而已,就好像其他有用的技术一样,如蒸汽机、电视机、GPS等。所有这些技术都可以让我们做一些新的事情。
人工智能不会生产出像人类一样的“智能”,而是会不断提供非常有用的技术和新东西。吴恩达是对的,技术对人类来说一直都是合作伙伴,而不是替代品。每一种新技术都会给人类创造更好的工作。
“鼠标之父”道格·恩格尔巴特(Doug Engelbart)是硅谷最有影响力的人之一,他生前一直倾向于使用“增智”而不是“人工智能”,他认为机器会让我们的智能更强大。
这一点在仿生学上表现得尤其明显。人们似乎总是将智能机器作为单独的实体来讨论,其实,在用机器来完善、加强人体,而不是取代人体上我们已经有了很大的进步。仿生学的历史从1961年人们将第一个电子芯片植入人类耳朵的时候就已经开始了。1965年,家何塞·德尔加多(Jose Delgado)通过遥控电子装置向一头公牛的大脑发射信号,以此控制牛的行为震惊了世界。1998年,菲利普·肯尼迪(Phillip Kennedy)发明了一种可以捕获残疾人“意愿”的大脑植入物,以此来移动手臂。
2000年,杜伯利(William Dobelle)的小组发明了一种视觉移植系统,可以让盲人看到外面景物的轮廓。2006年,阿马尔·格拉夫斯特拉(Amal Graafstra)蹿红,因为他的双手植入了微小的无线电频率辨识芯片,一只手可以连接到智能手机上储存和更新数据,另一只手只要一挥就可以打开前门,再一挥就可以登录电脑。
2013年,杜克大学医学中心神经生物学家米格尔·尼科莱利斯(Miguel Nicolelis,他可能是这个领域最知名的研究者)让两只老鼠捕捉对方的“想法”并用互联网传送给对方,以此实现沟通。现在尼科莱利斯正试图连接猴子的大脑,这样他们就可以合作完成一项任务。同一年,华盛顿大学的罗杰西·拉奥(Rajesh Rao)和安德里亚·斯托科(Andrea Stocco)让用意念控制他人身体变成了现实,他们发明了一种方法,可以让拉奥的脑信号通过互联网传递到斯托科的手上,拉奥可以让斯托科的手移动起来,这是第一次人类可以控制其他人的身体。2014年,截肢者丹尼斯·阿波从思尔维斯特罗·米克拉(Silvestro Micera)的研究团队接受了一只机械手,这只手能够向神经系统传递电子信号,创造出触感。
半机器人时代已经到来,这不是什么坏事,就好像我们现在戴眼镜和使用助听器一样。我甚至觉得,神经植入物可能会在人工智能之前改变很多人的生活。