首页 » 终极智能:感知机器与人工智能的未来 » 终极智能:感知机器与人工智能的未来全文在线阅读

《终极智能:感知机器与人工智能的未来》第二章 当今世界与不久之后的将来 04. 战争与人工智能

关灯直达底部

请与我一起回顾最初发表在美国海军学院期刊《报告》(Proceedings)上的一个思想实验,该实验由我的朋友兼合作伙伴、四星上将、美国中央司令部前副司令、现服役于美国海军陆战队的约翰·艾伦将军(John Allen)设计。32

2018年1月2日,一位船长在遭受一次突然袭击后正在评估船的受损情况,他发现这并不是一次普通的攻击,而是一次大规模战略性突然袭击。船长和船员没有预料到此次攻击,因为他们都没有发现船的系统遭到了网络攻击。这次未被发现的网络活动不仅破坏了传感器,而且还“锁住”了防御系统,使船孤立无援。随着一群无人机对船发起攻击,动力学打击一波接一波袭来。船被一套有行动目的且能够与船发生交互的自主系统攻击了。

不仅如此,此次攻击的速度也令水手感到震惊。虽然船上的技术专家能够在网络入侵时启动部分防御系统,但剩下的船员只有几秒钟时间做出决定。几秒钟后,一些水手凭借有限的态势感知设备,查明敌人的自主网络和运动系统正在合作,但就在几分钟后,整个攻击结束了。

船长得以幸免,并且勇敢地留在了舰桥,但他与许多船员都身受重伤。火势失去了控制,船已经开始严重漏水。由于系统被损坏,船长无法联系到受伤的损害控制助理。部分敌方自主攻击平台似乎完全了解应该攻击船的什么部位,才能造成最大破坏并且降低存活率。船长的指挥能力严重下降,水的漫延也已失去控制。

在对整个情况进行调查后,他意识到自己必须做出一个几代美国船长从未做出过的决定:弃船。

战争方式的改变

在历史长河中,人类的战争方式已经历了数次根本性的转变,比如骑兵的运用、线膛步枪的出现、装甲车加空中支援以及第二次世界大战中闪电战执行过程中的实时无线电通信等。不同领域的技术进步共同实现了这些巨大的转变,而今天我们又处在这一转变的交汇处。正如伊拉克军队苦于应对智能精确制导武器、隐形技术和电子战等“第二个抵消”技术一样,如今的军队必须面对已发生巨大改变的战争。

我们可以在今天的战争中看到这些变革的基本轮廓。计算机视觉等技术得到了机器学习算法的辅助,包括深度学习、人工智能自主决策、先进的传感器、部署在“边缘”的微型高性能计算能力、高速网络、进攻和防御网络能力以及其他各种人工智能能力。自主群行和传感器数据认知分析等技术的实现将成为这一新革命的核心。所有这些能力的聚集将带来一个令人难以置信的结果:人类在战争中的作用最小化。在这一即将到来的时代,我们将看到人类提供广泛的、高级别的输入,而机器将被用于规划、执行和适应任务,并在没有其他输入的情况下做出数千个独立决定。人类最终可能会从决策循环中退出。

超级战争

艾伦将军是第一个将这种人工智能推动的、机器发动的冲突称为超级战争的人。在第二次世界大战期间,这个词指的是包含多个战区的全球性战争,但如今,这种新型超级战争的独特之处在于其史无前例的速度,而正是自动化决策加上多个行动同时发生使这种速度得以实现。随着人工智能和机器认知技术的应用,该过程将进一步提升效率。

因此,在描述未来战争时,将军们会使用“超级”这个词。在希腊语中,这个词的意思是“超越”或“在……之上”。超级战争指的是一种新型战争,此类战争在一些非常重要的方面超越了我们之前所看到过的战争形式。在军事领域,超级战争可以被重新定义为一种人类决策几乎完全脱离OODA循环的冲突。因此,与整个OODA循环相关的时间被缩短到几乎为零。

OODA循环

直到21世纪,战争行动的决策才开始不完全取决于人类的认知。虽然人类有巨大的决策潜力,但在速度、注意力和勤勉度上有所限制。正如我们之前所述,人类的决策速度存在极限,而且在做出重大决策时,“认知负担”不可避免。在做出一定次数的决策后,人类决策者需要休息和调整,才能恢复到更高的认知水平。心理学家丹尼尔·卡尼曼(Daniel Kahneman)发表了与法官有关的这一现象的研究报告,报告表明,单一因素,比如缺少葡萄糖等,可能使人类无法正确做出裁决。疲惫的大脑会变慢,甚至停止分析思考,退回到依靠直觉的“快速思考”阶段,从而可能犯错。33正如我们之前所讨论的,机器没有这些限制。机器智能的形式类似于软件,它可以经常在廉价的硬件上运行,并可以轻松复制,因此它可以实现无限次的战术、行动和战略决策部署。

人工智能让“大卫”能够杀死“巨人”

“压制敌人”是我们在战争题材的文学作品中经常见到的一个短语。在军事领域,这个短语指的是在一段时间内将兵力集中在一个有限的区域,凭借人数优势或火力优势使对手无法反击或抵抗。这不一定是因为攻击力量比整个防御力量更强大,但肯定是因为其兵力在合适的时间出现在合适的地点。这将带来非常重要的区别。如果可以快速“完美协调”较少的兵力,并将兵力应用于一个敌人无法加固的精确地点,那么即便用较少的兵力也能够取得成功。如果此类行动可以复制,那么对方的大部队会被有效地蚕食,并且对方会在心理上遭受打击。兵力多的一方将无法占据优势,并且持续的时间越长,其兵力就会越快地减少。这就是“大卫与巨人”战争模型。

这个问题中的两个关键变量是时间和空间,即形成和执行攻击行动所需的时间,以及执行此类行为的空间。这两种变量都是根据重大战略、行动和战术决策计算出的结果。首先要确认部署兵力的合适候选空间,选定后要计算一大批可能性,这在军事中被称为“分支”和“后续”。通过基于机器的决策,我们可以同时协调调动大量传感器和狙击手,从而快速形成或聚集兵力,并对敌人进行攻击和后续的驱逐。这种基于机器的决策是超级战争的主要推动力,其效果远远超过了人类的控制和指挥效果。

● ○ ●

俗话说:“业余人士讨论的是战术,专业人士讨论的是物资输送。”这句话为我们理解所有战争的运作方式提供了有用的指导。自古以来,发动战争所需的人类军队都需要食物、衣服和保护。人类士兵的各种需求就产生了各种物资方面的要求。部队保护、医疗撤离和宪兵队更是让原本就复杂的供应链雪上加霜。相对粗俗地讲,一个士兵=人类智能 + 移动 + 火力。现代军队当然不再使用人类的肌肉作为火力,而大多数情况下,部队转移过程中也不会用到人类的肌肉。机器人士兵将具备这些功能,并拥有各种形状和大小的体形。它们的需求不像人类士兵那么丰富,它们也不像人类士兵那样不能被抛弃。在几乎所有情况下,人类指挥官都不会愿意冒着生命危险去战场上回收机器,这项危险的任务可能会葬送他的性命。

如今,大部分无人机都需要人类操控,只是人类飞行员不再需要登上飞机,他们可以在远程做出决策。这虽然实用,但仍有许多缺点。第一,由于会出现延迟,如今的无人机可能只能执行部分类型的任务,很难执行高速空对空战斗。第二,该系统依然容易发生拥堵并让无人机失去联络。最后,人类飞行员可能难以承受真实战争所带来的压力。无人机飞行员频繁地执行任务导致创伤后应激障碍(PTSD),这已经成为当前模式的一大弊端。

真正具有自主能力的机器和机器人具有各种不同的类型和尺寸,并且搭载了人工智能,它们将成为未来超级战争中的士兵。它们像商业四轴飞行器一般大小,并且能够穿越森林和旷野,还可以快速聚集、行动和隐藏。它们将配备精密的传感器,为群体作战和在集合地点时的视觉和决策算法提供信息。除此之外,它们还配备了各种网络和动力负载。大部分此类系统都可以通过群集算法协调,使“一个集体”能够完成任务并使无人机能够提供支援且根据损失情况进行调整。

人工智能的技能与训练

“二战”时期的德国陆军元帅、“沙漠之狐”埃尔温·隆美尔(Erwin Rommel)曾说过:“一流的训练是军人所能得到的最好的福利。”没有训练,就没有胜利。先进的军事训练能帮助创建战争中所必需的专业角色。面对人工智能技术及其带来的超级战争,我们的训练方式将出现两种突破性的变化。第一,基于自然语言等人工智能技术的对话系统,将能够消化几十万页的手册、指南、研究等资料。在设备维护等非战斗领域增强人类操作员的能力。第二,当使用完全自主的系统时,系统之间可以轻松复制人工智能战术和战略。这相当于经验最丰富的老兵向从未参加过战斗的士兵实时传达经验和知识。另外,它们还可以快速更换技能和专业领域。一个自主飞行平台既可以在压制敌人对空防御体系时成为专业飞行员,又可以快速更换神经网络控制器,从而成为全球最厉害的制空权夺取专家。另外,如果一个专家级的人工智能飞行员需要牺牲自己才能完成任务目标,那就尽管让它去做。除了硬件之外,没有任何损失。毕竟人工智能的“模式”,也就是这名“飞行员”的“大脑”,可以被轻松地复制到另一个硬件上。

人工智能系统既可以在现实世界中接受训练,也可以使用模拟器进行训练。AlphaGo在历史悠久的围棋中击败多位人类围棋大师,它所使用的强化学习也被用于制造更好的无人驾驶汽车。无人驾驶汽车不需要经历每一名人类驾驶员必须经历的痛苦学习过程。搭载高性能神经网络的汽车或者模拟汽车可以将其经验和学习成果发送给所有其他汽车。这种快速的“转移式学习”将在未来的超级战争中成为另一种通过人工智能实现的无可匹敌的能力。

一个新的、更好的思维实验

由于即将到来的超级战争时代将出现的这些技术进步,艾伦将军设计了另一种思维实验帮助我们预测未来。想象一下,如果现在是2028年5月28日,新型战舰的人工智能网络防御系统刚刚探测到疑似的网络入侵,甚至可能是网络攻击。这种入侵无处不在,它不但可以“锁住”战舰的传感器和大部分防御系统,还可以“锁住”战舰的反蜂群炮台和支援系统。最初的网络攻击和成功的防御在不超过一秒钟的时间里就完成了。防御系统完全执行了其设计功能,因此战舰能够“感应”、探测到即将发生的大规模复杂集群攻击,即动态跟踪隐形攻击。该系统甚至可以将威胁信息发送给舰队中的其他船只,使它们能够更充分地准备保护自己。

新任舰长以及指挥所其他船员从舰桥快速移动到主甲板,他们都头戴增强现实头盔和船员手套,这些设备能帮助他们掌握将要面对的总体情况,并针对复杂形势做出反应。舰长首先想到的是武器的状态。他只有几秒钟时间,因为一些发起攻击的飞行器可以达到超声速甚至极超声速(声音速度的5倍)。由于威胁等级的提高,舰长已获得高度的自治权以应对任何潜在的攻击者。他很快通过头盔转到“武器状态视图”,这里不断提供来自战舰火力控制系统的瞄准信息,一切就绪。舰长必须采取行动,因此他转到了“状态视图”。他通过手势进入虚拟现实中,然后启动视图并在那一刻做出了超级战争中仍取决于人类的一个决定:他“决定”开火。现在,在得到开火命令后,战舰武器系统中的所有武器都转向了战舰外的天空。空中布满了各种完全自主的飞行器。其中一些战舰武器快速奔向攻击方向,将敌人的蜂群攻击阻挡在战舰之外;另一些则待在战舰的周围组成最后一道防线。战舰上没有一名美国海军军人看到过战舰火力全开时的情景。当所有武器朝空中开火时,整艘战舰战栗、震动,发出史无前例的巨大声响。这一刻所具有的革命性意义就如同1862年汉普顿锚地海战时,北军和南军海军用铁甲舰永远改变了战争,或者如同其后近100年“二战”中的早期航母战争——舰队行动第一次发生在视野范围之外。

● ○ ●

让我们回到这艘战舰上。舰长将头盔转移到“目标视图”并观察眼前的情况。他在模拟器训练时一直对此类工具持有一点怀疑,但现在他所看到的现实超出了他的想象。完全自主的空战系统之间展开了生死之战:蓝色轨迹代表己方系统,红色轨迹代表的是敌人。随着战斗的开始,一个个红色和蓝色标记在几秒钟内以惊人的速度熄灭,这表示它们已经被摧毁,比如发生碰撞或者近距离爆炸等。战局以极快的速度朝他的战舰倾斜。武器官以迅雷不及掩耳之势通过他的头盔朝战舰的人工智能发出命令,各种近战武器系统万箭齐发,其中也包括对抗敌方蜂群攻击的自动武器系统。

第一波短兵相接震耳欲聋。敌人蜂群中的一些飞行器在战舰上空爆炸,摧毁了战舰的多根天线。这些飞行器显然是在寻找特定的天线以降低船的通信能力。第二波攻击炸毁了战舰的主要防御武器—— 20毫米方阵格林炮。第三波攻击贴近海面,造成大量船员伤亡,船体也开始进水,并燃起熊熊大火。而战舰周围激战正酣,动态捕捉系统自动调整武器系统,不停地开火,而在战舰内,紧急损害控制和医疗救援措施均已启动。

舰长快速切换到“损害控制视图”并查看人工智能损害仪表盘,而战舰的系统正在灭火和控制进水。凭借先进的人工智能系统,他能够立刻看到战舰的哪些系统已下线,哪些系统正在重启恢复,哪些系统正通过交叉连接恢复功能和能力。战舰的系统自动分配动力负荷,并启动紧急系统。现在,系统可以在几秒钟内做出损害控制决策,而在几年前则需要好几分钟,那样会使情况变得更加危险。

最后,舰长转到他所担心的视图:“船员状态”。舰上的每名成员都穿着可以测量体温、心率、血压和呼吸的无线“健康状态系带”,因此他可以马上看到船员的整体状态以及各位水手的状态仪表盘。他在这里停了几分钟,为伤亡的船员默哀。他快速浏览了船员情况子视图,看到死亡者和受伤者,他清楚哪些军官已经倒下,并开始思考如何重新建立指挥链。这些军官和水手都是他宝贵的家人。通过该视图,他可以了解每一名船员目前的位置。他还可以看到医疗人员正在紧张地施救,他们也配备了同样的监控系统,可以了解伤亡情况,了解目前伤者正在接受何种急救措施,以及整艘战舰上阵亡和受伤士兵的具体位置,便于前往实施手术。

● ○ ●

数小时后,舰长的伤口得到了处理,火被扑灭,进水情况也得到了控制。他开始反思刚才所发生的一切。他对现实感到震惊,但没有感到恐惧。这次攻击令人猝不及防。网络防御系统已经探测到第一次网络入侵,它不仅保护了战舰,而且推断出此次攻击之后更是大规模的攻击。系统向战舰的指挥者发出警告,提醒他们之后可能发生的情况。这种假设在一秒内形成、分析并得到验证。在10秒内,战舰自动启动了战斗部署,舰长已戴上增强现实装备。从那一刻起到战斗的爆发也就两三分钟时间。武器系统的自主性和战舰的防御系统阻止了一次复杂的网络和自主蜂群联合攻击。舰长意识到,如果几乎每一个环节都需要人类采取行动和做出决策,那么这艘战舰的境遇可能要比现在危险得多。他刚刚体会到了人工智能与深度学习影响下的战争,其发展的速度是多么不可思议。他突然意识到自己是第一个在超级战争中战斗过的美国指挥官,但他绝不会是最后一个。

一场军事革命

这种情况仅仅是人工智能推动下的一次战争革命的多种方式之一。高机动性平台结合分布式机器智能,给军事行动带来了前所未有的速度和规模。人工智能技术的进步能够从根本上改变人类的境遇,并由此深刻改变人类的战争。

势均力敌的对手已经开始大力投资这些技术,甚至已经开始部署一些人工智能武器系统,如巡航导弹等。现在,自主算法有能力将危害性一般的武器系统变成无法被忽视的威胁。

正如我们的思维实验所证明的那样,开战后,战术方面的速度将大大加快,决策 –行动循环的时间将被缩短到一秒内,自主决策 –行动能力更强大的一方将具备巨大优势。在运行层面,指挥官能够通过人工智能算法更快速地感知、看见和干扰敌人的阵型。由此而来的结果就是,大批量复杂的、自主的武器系统应运而生,它们可以在运行深度内,同时对敌人展开攻击。

在战略层面,得到这种能力支持的指挥官将通过整个战局中的传感器看到战略环境。智能助理、高级互动虚拟化、虚拟现实技术以及能够快速更新地图投影的实时显示等人工智能辅助技术共同作用,将实时态势感知变为现实。

这些都再度引发了我们对战争本质的老生常谈式讨论。如果我们已经处在超级战争的边缘,就必须探索适应这种新冲突环境的方法,尤其是在道德层面。完全自主的机器(整个动作范围,包括致命反应都完全自主的机器)的发展前景令许多人感到不安,因此就这一主题所展开的公开辩论中加入了一些“缓和剂”,比如“半自动”和“人类介入”等安慰性的词语,虽然这些词听起来让人舒服一些,但它们会造成误导。它们伪装成答案,但其实根本没有涉及问题。如果要让机器在各种情况下都能有效运行,那就肯定需要完全自主的系统。参与决策循环的人类眨一次眼、点一次头都不利于正确对抗,也不利于满足上述需求。比如,当一群无人水下航行器发现一个关键目标,如一艘潜艇正准备发射带有核弹头的导弹,同时通信受阻时,这些无人水下航行器如何能够采取行动呢?它们在无法联络人类指挥官的情况下该如何消除威胁?或者它们如何自己采取行动来保护我们?

为了进一步探讨此类问题,我们还需要理解,我们已经生活在一个只有依靠人工智能才能防御部分智能导弹的时代了。比如,美国海军舰队目前的密集阵近防武器系统(Phalanx CIWS)带有雷达和一台与射速极快的格林炮连接的计算机。启动后,该系统可专用于防止船被掠海飞行的巡航导弹和其他空中威胁打击。当一枚导弹进入距离船约2.5英里[3]的半径范围时,人类无法有足够的反应时间。密集阵近防武器系统必须完全自主运行,它必须能自己追踪导弹、瞄准并开火。

超级战争还将改变我们对空战的理解。在20世纪中叶的小规模冲突中,飞行员的技术决定着生死。如果战斗机飞行员要开火,那就必须占据位置和机动性上的优势,因为目标的反击和机动性优势会使其无法从下方击落对方,但在20世纪80年代和90年代,飞行员训练的重点开始转向超视距空战(BVR)技术。飞行员在小规模冲突中无须看到另一架飞机上的飞行员,而是通过雷达技术发现长距离目标后发射导弹即可。最早的超视距空战导弹模型缺少精密的传感器和算法,但这些能力目前已经大幅进化。最新的导弹制导系统可以提供真正的“一劳永逸”(.re–and–forget)的能力。像美国先进中程空对空导弹(AMRAAM)这样的导弹可以在没有发射器的情况下击中目标,即便是处于敌机目标视野范围内也不例外。战斗机在导弹接近敌机前就已掉头并消失在敌机视线外。这种技术被称为“一劳永逸”是有原因的:武器负责思考,飞行员负责遗忘。

当然,全球战争中一些威胁的技术含量并不高,但即便是这些技术也需要越来越先进的自动瞄准系统。在2012年,伊朗人警告美国海军不要将航母驶入波斯湾。他们展示了几百艘可以在水上以极快速度行驶的水翼船。34伊朗通过此举向美国释放威胁信号,它们可能会让500个甚至1 000个人乘上这些船,通过人数压制美国的航母。由于水翼船本质上就是“自杀船”,这种战术就如同日本在“二战”时期的神风敢死队飞行员战术。这种战术根本不可能阻止航母,但会让许多人失去生命。

与我们未来军事领域的例子一样,除了人工智能之外,没有能够有效对抗蜂拥战术的策略。总不可能在航母甲板上放几十门大炮吧,即便可以这么做,人类炮手的反应速度也无法跟上蜂拥而至的水翼船和它们所发射的武器。唯一能够应对蜂拥战术的就是反蜂拥,或者一个控制了美国海军激光武器系统(LaWS)的自动瞄准系统。毫无疑问,并不是只有美国会面对这种超级战争。比如在2016年,中国航天科工集团公司的王常青告诉《中国日报》,中国正在开发基于人工智能的巡航导弹。他表示:“我们计划在研发新巡航导弹时采用‘即插即用’的方式,这样我军领导可以按照战斗条件和具体要求配置巡航导弹。此外,未来的巡航导弹将实现高度的人工智能和自动化。指挥官可以实时控制它们或者使用‘一劳永逸’模式,甚至给飞行中的导弹增加更多任务。”35

这些军事技术的发展传递出一个信息:我们需要训练和教育年轻的与年长的领导者如何以不同的方式思考并适应这些即将到来的快速决策环境。狭义人工智能时代近在眼前,如果我们坚持让人类介入,那必将带来劣势。正如我们要在后面的章节中讨论的,像人工智能巡航导弹这种狭义人工智能技术必然会被应用到未来的一些冲突中,人类的介入不仅是不必要的,而且是危险的。

● ○ ●

如果人类已无须介入战争的一些方面,那么普通公民该如何参与军事技术的发展呢?为了回答这个重要的问题,我联络了我在美国军方的另一位同事——前空军官员与前美国国家安全局局长肯·米尼汉(Ken Minihan)将军。36米尼汉将军在美国军队和政府工作了50年,有着漫长而传奇的经历。在为比尔·克林顿政府服务期间,他是首批公开承认21世纪安全威胁的顾问之一。

他告诉我:“20年前,没有人会不断地讨论新技术的漏洞。进入后冷战时期后,政府因预算问题而放弃了解决这些新威胁的努力。当时我们的公司正在开发所有这些新技术,但我们没有试图将这些技术私有化或秘密研发。我希望隐私和安全责任能够从政府转移到行业,我们应当努力创造条件,让私人企业感到责无旁贷。”

根据米尼汉将军的描述,我们在网络时代仍在引导这一责任的转移。不幸的是,威胁变得越来越多。有的国家正在培养自己的网络战争部队,更不用说那些恐怖组织了,但因为隐私问题,米尼汉将军的目标——让私人企业承担更多安全责任,变得更加复杂。在美国这样的民主国家,《1984》中所描述的那种针对个人的监视会遭到民众的强烈反对。虽然我同意公开讨论所有这些问题,因为辩论是民主制度取得进步的过程中必不可少的,但我也对这种独特话语的缺陷感到遗憾。民主国家无法像极权国家那样运作。如果一个真正的极权国家为了自己的利益而使用并将继续使用先进技术,那会发生什么?在将保护公民放在第一位的同时,我们是否也应该增强政府防御外国反对势力的能力?

我们看到布什在任职期间对基因和干细胞研究施加了类似的限制,但他国并没有施加此类限制,我们一直引以为傲的技术优势已逐渐消失,而这都是因为坚持以二分法讨论这个问题。我们只能在以下问题上二选一:安全或隐私,人工智能或人类,永远的乌托邦或糟糕的反乌托邦。

“我认为安全和隐私更像是铁轨的两根轨道,”米尼汉将军告诉我,“它们一个向上,一个向下,但保持对称。它们总是同时存在,你可以根据威胁和新技术调整平衡。所以我更喜欢谈论‘我能相信这项技术吗’,而不是‘它安全吗’或‘它能保护隐私吗’。”

我认为智能软件和人工智能可以在这方面帮助建立更加细致入微的第三种方法。比如在2013年,美国运输安全管理局(TSA)在机场安检口使用“反散射”身体扫描器,引发了群众抗议。37它们被公众称为“虚拟裸体扫描器”,最终美国运输安全管理局撤下了所有机器。对大部分公众而言,信息被另一个人解读就是侵犯隐私。

正如在本书阐述中人工智能推动了大量科学技术的发展一样,人工智能也可以化解人们对隐私泄露的担心。我们可以使用带有认知软件的身体扫描机器,其认知软件能自动分析捕捉到的图像。只有在软件确认出现异常情况时,才会向人类显示图像。这能够限制暴露在政府监视下的公民人数,从而解决很多问题。人工智能和智能软件可以被用于实现隐私和安全之间的平衡。这种信任是我所说的更加细致入微的讨论的一个重要组成部分。开发更好的软件和更加智能的分析技术不会解决所有安全问题,也不会毁灭我们。实际情况介于两者之间:是的,我们可以并且应该控制科技所产生的风险,但碰巧的是,要做到这一点的最佳方式是开发更多技术,尤其是更加值得信赖的技术。

让我们再来看一下目前马斯克、霍金等重量级人物禁止自动武器的提议。该提议认为,种族清洗是自动武器最危险的用途之一,其危险性甚至超越了以特定类型的DNA为目标的生物武器,比如自动武器系统可以被设置为搜索特定种族的成员并消灭他们。的确,具备类似功能的无人机距离商业化已经很近,可能只需要几千美元就能买到。如果它配备了来自像DIY Drones[由前《连线》杂志编辑克里斯·安德森(Chris Anderson)创立的控制系统开发网络论坛]这样的社区所提供的自主导引软件,就可以很轻松地创建出这样的系统,但这不是未来的人工智能,而是目前的人工智能。当无人机碰巧看到一个特定颜色、肤色或具有表示其种族属性的生理特征的人时,无人机可以通过免费提供的图像识别软件将这个人确认为目标。这项技术只需要一个预算有限的小型私人团体花费数周时间就能开发出来。

看到这些,你可能会认为我是站在马斯克和霍金那边的,毕竟这些都是可能会出现的威胁,但事实上,这项技术能够如此方便地获取,以致我要提出质疑了,归根结底,这项禁令该如何执行呢?前联合国秘书长潘基文的话就能阻止朝鲜开发自动武器?期待一个机制或一项国际公约可以有效监督此类活动是不切实际的。我再次声明,人工智能创新已经开始并且无法被阻止。

● ○ ●

在我们最近的一次谈话中,米尼汉将军让我产生了一些激进的想法。“当我和美国现在这代领导人交谈时,”他说,“我总是会问‘你们准备在智能技术上花多少钱,你们对网络攻击有多担心’。我知道在工业时代如何解决这些问题,但那无法解决网络时代的问题。这一代领导人必须站出来得出一些结论,就像你们的祖父辈们在‘一战’和‘二战’后那样。现在的问题是:我们的策略是什么?现在轮到你们这代人决定如何在21世纪保护我们的世界了。”我能够回答米尼汉将军的问题。我希望我们这代人做好准备,也就是开发出能够控制这些潜在威胁的技术。我们无法依靠那些不可执行的禁令和条约。我们需要下一代人工智能技术。我们需要引导公众更辩证地看待人工智能。

幸运的是,对军人和公民而言,在计算机科学部门以及得克萨斯州的奥斯汀和硅谷等科技创业公司热点区域之外,全新的技术发展和人工智能创新的环境正在出现。我们将在下一节了解到,今天的一些最先进的人工智能算法已在低摩擦系数且有即时反馈机制的领域得到了应用,比如金融市场。