当今人类的生产生活已经被人工智能的浪潮裹挟,这不是第一次,也不会是最后一次。有智能行为的东西,很容易触动人类内心的好奇和同情。人们喜欢和自己养的猫狗互动,跟我们喜欢和GPT“胡乱”聊天,喜欢看机器狗摔倒爬起,其实是一样的心理。这种心理的背后深层次的原因,是人类总是试图认识自身的思维和行为,从心理行为层面,从生理机制层面,甚至是从计算机制层面。如果从计算机制层面搞清楚了,那再造一个硅基大脑就有希望了。
物理学家费曼说过:“我造不出来的东西,我就还没理解。”(What I cannot create, I do not understand.)反之,如果我们还没有理解,当然也就造不出来。要造出一个硅基大脑,使它像生物大脑一样有感知、有记忆、有决策、有行动,我们必须努力观察和发现生物大脑运行的机制,并把它们构建成数学模型,感知、记忆、决策和行动才能在硅基的计算机中复现。
这是一本很有雄心的书,作者林赛试图用10个数学模型来回答“生物大脑的计算机制究竟是什么”。这也是一本安静的书,不适合那些想从脑科学中“淘金”,拿去人工智能领域“变现”的匆匆过客。如果你稍有一点耐心,坐下来一两小时,试着读一章,你就会被其中有趣而深刻的故事所吸引,一定会在某个地方受到震撼,得到启发。不要担心数学模型的深奥,正文里没有一个公式,即使是附录里的公式也是极其克制而简洁的。
疫情防控期间,偶然的机会读了本书的英文版Models of the Mind,立刻被作者试图用10大数学模型总结大脑运行机制的雄心所打动。作者还用讲故事的方式,介绍了这些数学模型背后的科学家以及他们之间的互动,硬核模型背后又平添了人性的温度。湛庐能选中这本书翻译出版,对那些试图理解智能本质的人们是一件幸事。你尽可以把它当作一本大脑建模的“旅游攻略”,在其中走一遍会大开眼界,最重要的是,下次你想去哪个模型景点“深度游”的时候,就有了一张系统的文献地图和人物关系图。作者显然是计算神经科学领域的“资深旅行者”,对过去一个世纪脑科学和大脑建模的历史了解得很通透。
这个星球上有两种智能:生物智能和机器智能。生物智能是从自然界亿万年的生物进化中涌现出来的,是生命体为了自身生存,不断摄取环境中的物质和能量,自下而上自监督“训练”出来的,简单讲是靠投喂“物质”和“能量”得到的生物体内“活的”碳基的神经结构;机器智能是人类受到生物智能,特别是人类自身智能行为的启发,自上而下设计出来的,需要人为设定目标并监督“训练”。在当前阶段,机器智能主要靠人为提供的计算体系和海量数据,简单讲是靠投喂“信息”得到的计算机里“无生命”的硅基神经网络。这两者的差别是不言而喻的,我深信前者更加优雅,背后的数学模型也更加简洁。
我们通常高估了人类顶层设计的智慧,低估了自然进化的智慧。我们也一定高估了人工智能发展的快变量――算力和数据,低估了人工智能颠覆性发展的慢变量――自然界放在我们眼前的生物智能结构。“朝菌不知晦朔,蟪蛄不知春秋”,在自然进化的生物智能面前,人类就是“朝菌”和“蟪蛄”。 这本书提醒我们,其实今天如日中天的人工智能就是在努力模仿生物神经网络的核心结构和动态规律,只是人工智能的快速迭代,模糊了背后的神经科学背景。
书中的10个模型可以分为两类:一类是功能输出型的大脑模型,这类模型对人工神经网络和人工智能的发展起到了非常直接的推动作用;另一类是数学抽象型的大脑模型,为脑科学研究提供了信息论、系统论与概率论的分析视角和工具。我重点提一下7个经典的功能输出型的大脑模型,它们在过去70年人工智能的发展历程中发挥了关键性的作用。
单个神经细胞的动力学模型。乌贼粗大的神经纤维给了科学家精确测量细胞膜内外电流的机会,再借鉴电子电路的思想,定量刻画了一个神经细胞是如何放电的,构建了泄漏整合发放(Leaky Integrate-and-Fire,LIF)模型和霍奇金-赫胥黎(Hodgkin-Huxley,HH)模型,这成为后来的脉冲神经网络的出发点和依据。一个神经细胞虽然简单,但是离子通道丰富多变的动力学特性,以及神经细胞树突的丰富形态,为脉冲神经网络建模带来了极大的想象空间。多层前向神经网络——感知机。把单个人工神经细胞拼接起来,形成多层结构,并发展出相应的学习算法,这样建成的感知机可以识别手写体数字,成为第一个有用的人工神经网络。感知机看上去像一个玩具模型,但它无愧于一个“顶天立地”的智能英雄,一方面开启人工神经网络的工业化应用,另一方面把图灵所提出的可学习可教育的机器变成了现实,使智能理论迈出了一大步。模仿视觉大脑的卷积神经网络。把猫的初级视觉皮层简单细胞和复杂细胞处理图像边缘的机制,抽象为两个层次的图像卷积操作,并模仿视觉通路的层次化结构,不断重复这样的分层卷积,最终构建了能够识别复杂图像的卷积神经网络。这个多层结构几乎复制了猴子和人类的腹侧视觉通路。 加上反向传播算法的发明,以及此后网络深度的快速提升,开启了基于深度学习网络的智能新时代。模仿海马等大脑认知模块的循环神经网络。把记忆等大脑内生状态抽象为循环连接的神经网络,基于神经可塑性的赫布法则,把需要记忆或者临时处理的信息(及其序列),以吸引子的方式隐藏在复杂的网络连接系数中,构建出霍普菲尔德网络、玻尔兹曼机、连续吸引子网络等。这一升级,使人工神经网络有了动态的隐空间,网络的行为也变得更加灵活而智能。大脑运动控制的群体向量模型。猴子运动皮层单个神经细胞总是偏好某个特定方向,大量运动脑区的神经细胞用放电频率来“投票”,共同决定了手的运动。在数学上,用一个简单的线性回归模型,就可以从一群神经细胞放电频率推算出猴子的手如何运动。这一模型虽然存在争议,但它几乎是脑机接口解码运动参数的标准算法,非常可靠。有时候我甚至怀疑,这是运动皮层神经细胞在粗暴算法的“逼迫”之下快速学习和适应的结果,而不是什么“解码”。模仿生物奖惩学习行为的强化学习算法。生物体在环境中寻求奖励的过程是不断探索、不断更新预期的过程,大脑深部的神经细胞会根据预期误差的大小,释放适量的多巴胺,来指导生物体的下一步行动。这种机制对应的数学模型就是著名的强化学习算法――时间差分学习。如果把游戏终局时的奖励,通过深度学习网络投射到玩家当前位置的预期,强化学习会更加精准有效,于是就催生了DeepMind Alpha系列的各种超级智能。生物神经网络“阴阳平衡”的机制模型。大脑是由千亿个神经细胞连接形成的复杂网络,这些细胞是如何协作,确保这个复杂系统不会崩溃的呢?背后是兴奋性和抑制性神经细胞之间的“阴阳平衡”。这两类神经细胞可能一直处于势均力敌的“拔河”状态,神经活动中观测到的所谓“噪声”和“震荡”实际上就是这两种力量来回拉锯。这种“拉锯”状态使得大脑可以快速有效地处理外界的输入。“拔河”力量失衡的大脑,就会出现癫痫或者其他精神疾病。
然而数学分析并不是麦卡洛克擅长的领域。一些认识他的人常说,他是个浪漫主义者,而太浪漫的人是不会拘泥于分析细节的。多年以来,麦卡洛克不断在脑海中酝酿这些想法,也不断在讨论中提及它们,甚至在贝尔维尤医院实习期间,他就曾被人指责“妄图编写单单一个方程式来解释大脑的工作方式”。尽管如此,他仍旧在一些技术问题上苦苦挣扎,无法将这些想法付诸实践。相较之下,皮茨对这种分析就显得游刃有余。当麦卡洛克将他的想法告诉皮茨时,皮茨一瞬间就明白了需要用什么样的方法才能系统地阐明麦卡洛克的直觉。于是在他们俩见面后不久,一篇关于神经计算最富影响力的论文就横空出世了。
《神经活动中内在思想的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)发表于1943年。这篇论文长达17页,包含了许多方程式,却只有包括《数学原理》在内的三篇参考文献,以及一幅由麦卡洛克女儿亲笔绘制的小型神经回路的图片。
论文先是回顾了当时人们已知的神经元生物学特性:神经元有细胞体和轴突;当一个神经元的轴突遇到第二个神经元的细胞体时,两个神经元相互连接;通过这种连接,一个神经元向另一个神经元提供输入信号;想要激发一个神经元就需要输入一定量的信号;一个神经元要么发放一个动作电位,要么不发放,而没有发放半个动作电位或者中间态的动作电位的情况;来自某些神经元,即抑制性神经元的输入信号能阻止其他神经元放电。
接下来,麦卡洛克和皮茨解释了神经元的这些生物学特性是如何同布尔逻辑相关联的。他们的核心思想是,每个神经元的活动状态,即神经元是否被激发,就如同一个命题的真值,或真或假。用他们自己的话来说,就是“任何神经元的反应实际上就等同于一个命题,一个关于神经元所受刺激是否足量的命题”。
所谓“足量的刺激”,指的其实是关于外界的一些信息。试想一下,在视觉皮质中有一个神经元,它的神经活动代表了这样一个命题,即“当前的视觉刺激看起来就像是一只鸭子”。如果这个神经元正在放电,那么这个命题就为真;而如果该神经元没有放电,则命题为假。现在再试想一下,在听觉皮质中有另一个神经元,它的神经活动代表的命题是“当前的听觉刺激听起来就像是一只鸭子在嘎嘎叫”。那么同理,如果该神经元放电,则命题为真,反之则为假。
于是,我们现在就可以用神经元之间的连接来进行布尔运算了。例如,如果我们把上述这两个神经元的输出当作第三个神经元的输入,就可以建立“如果它看起来像一只鸭子并且叫起来像一只鸭子,那它就是一只鸭子”这样一个规则。我们所要做的就是构建第三个神经元,使它只有在两个输入神经元都被激发时才会被激发。如此一来,“看起来像一只鸭子”和“听起来像一只鸭子”都必须为真,才能使第三个神经元所代表的“它是一只鸭子”的结论为真。