语言中有许多词都和多个不同的多忆体联系在一起,这些多忆体又与每个词的许多“意义”一致。要同时唤醒这么多多忆体,通常会导致冲突,因为每个多忆体都会同时试图把智能组引入不同的状态。如果没有其他背景线索,有些冲突就会根据它们的联结强度来解决。举例而言,在听到“那个天文学家和明星结婚了”的时候,如果其他条件一样,剧作家就会倾向于优先考虑演绎明星,而天文学家会首先考虑遥远的太阳。
但其他条件并不总是一样的。一个人的思维每时每刻都会卷入某种“背景”之中,在这种背景下,许多智能体都处于积极的活动状态。因此,当每个新词唤醒了不同的多忆体时,这些多忆体会竞相改变那些智能体的状态。如果某些特定的智能体组合会彼此强化,那么有些改变就会得到支持。那些没有得到支持、独自待在那里的改变会逐渐减弱,于是大部分模糊的意义就被清除出去了。经过几轮循环,整个系统会为每个词牢牢“锁定”一个意义,并坚决镇压其余的意义。
乔丹·波拉克和戴维·华尔兹开发的一款计算机程序就是按照这种方式工作的。当把这个程序应用于“John shot two bucks”这句话的时候,再补上最微弱的背景线索,程序通常都会确定一个一致的解释。换句话说,在几个循环之后,智能体们就会进入一种互相支持的模式。在这种模式中,每个词只有一种意义可以维持强烈的激活状态,而其他的意义都会被压抑。此后,无论这种词汇意义是与狩猎结盟还是与赌博结盟,它都会变成自我支持的状态,可以抵御之后任何来自外部的小信号。实际上,系统已经为这个句子找到了一种稳定、明确的解释。
如果这种系统停留在一个错误的解释上该怎么办?举个例子,假设“户外”的线索已经让系统决定John正在打猎,但之后,它被告知John是在森林里赌博。既然一个单一的新背景线索无法克服已经建立起来的意义联盟,那么可能需要某个高水平智能组重新启动这个系统。如果其他智能组无法接受锁定的最终结果怎么办?只是简单地重复这个程序只会导致同样的错误。为了防止这种事发生,有一种方法就是记录在之前的循环中哪些意义已经采纳过了,然后在下一个循环开始时抑制这个意义。这样就很可能产生一个新的解释。
我们无法保证这种方法总是能找到恰当的解释,可以产生与句子中所有词语都相符的意义。那么如果锁定过程失败了,听众就会感到混乱。人们也可以尝试一些其他方法,比如想象一个新的背景,然后重新启动闭环程序。但是没有一种方法可以一直有效。要利用语言的力量,人们必须获得许多不同的理解方式。