我期望创造性和建设性的技术应用将占主导地位,因为我相信它们今天所做的。但是,我们必须大大增加在发展具体防御技术上的投资。正如我所讨论的,我们现在正处于生物技术的关键阶段,在21世纪末的十几年间,我们将达到把防御技术应用于纳米技术的阶段。
现在我们不需要往回看,就能看到技术进步所带来的深度纠缠的希望和危险。想象一下几百年前的人怎样描述现存的危险(原子弹、氢弹)。他们会觉得发疯了才会冒这样的风险。但在2005年有多少人会真的想回到那野蛮、充满疾病、贫困、自然灾害多发的生活?27而几个世纪前,99%的人类都曾与这些进行抗争。
我们可以将过去浪漫化,但直至最近,大部分人类的生活仍是极度脆弱的,再普通不过的不幸都可能会引发一场灾难。两百年前,有记载的一些国家的女性的预期寿命大概是35岁,与现在的日本女性平均85岁的寿命相比,显得过于短暂了。男性的预期寿命大概是33岁,而现在男性平均寿命最高的国家是79岁。28在那个年代,人们花了半天时间准备晚餐,大部分人将从事艰苦的劳作。没有社会保障,人类物种中的大部分仍处于这种不稳定的生活方式中。这至少是促进技术进步、提高经济的一个原因。只有技术才能大幅度提高能力和承受力,进而可以克服诸如贫困、疾病、污染以及其他重要的社会问题。
当人们考虑未来技术的影响时经常会审视3个阶段:首先是敬畏并惊叹于其克服衰老问题的潜能;然后是害怕新技术带来一系列新危险的恐惧感;最后是认识到唯一可行和负责任的道路就是精心设计一种发展路线,既能实现好处,又能控制危险。
不用说,我们也经历过技术所带来的坏处,比如战争带来的死亡和毁灭。100年前,使用粗糙工艺技术的第一次工业革命已经使我们地球上的许多物种灭绝。我们的集中化技术(如建筑、城市、飞机和发电厂)具有明显的不安全性。
战争的"NBC"(核、生物、化学)技术已全部被使用或即将被使用。29更为强大的GNR技术会给我们带来新的深刻的生存危机。如果说过去我们担心的是通过修改基因而制造病原体,后来担心的是通过纳米技术自我复制实体,那么现在我们所担心的是遭遇那些智能与我们相当,并将最终超越我们的机器人。这样的机器人可能是很好的助手,但是谁敢说我们能指望它们与生物人始终保持友好的关系?
强人工智能。强人工智能保证了人类文明能够持续地以指数形式增长(正如我前面讨论过的,也包括从人类文明衍生出的非生物智能)。但正因为它放大了智能,所以其带来的影响也是非常深远的。由于智能天生无法控制,所以用来控制纳米技术的很多战略(例如下面描述的“广播架构”)对人工智能不起作用。已经有很多讨论和建议将人工智能向埃利泽·尤德克斯克的所谓“友好的人工智能”30引导。这些讨论很有用,但据此来制定确保未来人工智能遵循人类道德价值观的战略却是不可行的。
回到过去?比尔·乔伊在他的文章和演讲中描述了过去几个世纪的瘟疫,以及新的自我复制技术(如由生物工程引发突变的病原体和杀气腾腾的纳米机器人)将会带来已被人们长期遗忘的瘟疫。乔伊承认技术的进步,例如抗生素和卫生条件的改善使我们摆脱瘟疫,因此这种建设性的应用要继续下去。世界仍然存在苦难,我们必须高度重视。我们是否应该告诉数以百万计的癌症患者和患其他严重疾病的人,我们要取消所有生物工程治疗方法的发展?因为这些技术将来有被用于恶意目的的风险。提出这个问题,我也意识到现在的确有这样的讨论。但是大多数人也认为如此大的让步并不是解决问题的办法。
不断减轻人类痛苦是技术持续进步的主要动力。同样起推动作用的是明显地增加经济收益,在未来的几十年中收益将持续增加。许多综合技术的持续加速发展打造了很多条黄金之路。(在这里我强调的是很多,因为技术显然不是仅有的路径。)在竞争激烈的环境中,经济必须走这些道路。放弃技术进步对于个人、公司和国家都等同于经济自杀。