有关符号人工智能的哲学问题开始浮出水面。其中最著名的要数名为“中文房间”的思维实验。美国哲学家约翰·希尔勒(John Searle)提出该思维实验,质疑是否应将机器处理符号真正视为智能。
希尔勒提出,假设他被锁在一个房间里,房间里有很多中国书法作品。他并不懂中文,甚至无法将汉语与日语或其他毫无意义的字区分开来。希尔勒在房间中发现了一套规则,这些规则向他展示了一套与其他符号相对应的符号。随后,他被提问,并通过将问题符号和答案符号相匹配来回答这些问题。过了一会儿,希尔勒逐渐熟悉这项任务——尽管他仍然不清楚自己操作的这些符号到底是什么。希尔勒问,这种情况下能否说房间内的人“懂”汉语?他的答案是否定的,因为他完全缺乏意向性。他写道:“计算机可能有的这种意向性只存在于程序设计者、使用者、输入者以及对输出进行解读的人的思维中。”
如果说希尔勒是在指责人工智能研究者们像家长一样绞尽脑汁地炫耀孩子的才华,那么人工智能研究者们本身就面临着一个令人不愉快的事实:他们的孩子实际上并没有那么聪明。令人担忧的是,那些在实验室环境下表现不凡的工具并不能很好地适应现实状况。符号人工智能主要涉及自上而下建立以规则为基础的系统,该系统在实验室中表现出色,各元素都能够得到很好的控制。这些“微型世界”几乎不包含任何物质,因此可以采取的措施也十分有限。然而,一旦进入现实世界,在训练中表现优异的程序就像世界杯揭幕战中的英格兰队一样变得怯场了。
研究者们承认这些弱点的存在,并且将这些微型世界比作“一切事物都十分简单的仙境,如果以现实世界为前提,那么有关这些事物的陈述从字面上看就都变成了错的”。总的来说,人工智能一直在努力摆脱歧义性,但又缺少灵活抽象推理、数据计算和加工能力,而人工智能恰恰需要这些能力来理解其所展示的内容。任何没有事先明确说明的事物都有可能造成恐慌。美国作家约瑟夫·坎贝尔(Joseph Campbell)嘲讽道,这种人工智能与《圣经·旧约》一样,都是“规则太多,仁慈有限”。