蓝盟小贴士,来喽!
几十年来,有大量研究和证据表明,大脑不仅仅像拼图一样拼凑感觉信息,感知周围环境。 无论进入的信息是杂乱无章还是模糊不清,大脑都能根据进入的光线创造场景,这正好证明了上述观点。
因此,越来越多的神经科学家将大脑视为“预测机器”。 通过预测处理,大脑利用对其世界的先验知识来推断或生成假设,说明感觉信息进入的原因。 这些假设是在我们的脑海中产生的感知,而不是感觉输入本身的感知。 输入的感觉信息越模糊,对先验知识的依赖性就越强。
荷兰白鼠堡大学预测性大脑实验室的神经科学家Floris de Lange说,预测性处理框架的魅力在于它有非常强大的能力解释不同系统中许多不同的现象。
但是,越来越多的神经科学证据表明,支持这一观点的想法主要是间接的,可以有其他替代解释。
拉德伯格大学的Tim Kietzmann致力于机器学习和神经科学的跨学科领域,他说:“如果研究人类的认知神经科学和神经图像,会有很多证据,但这些证据非常含蓄,也是间接的。” ' '
因此,研究人员开始通过计算模型来理解和测试大脑的预测思想。 计算神经科学家通过研究生物神经元的行为,可以构建人工神经网络,学习输入信息的预测。 这些模型可以近似地模仿实际的大脑能力。 使用这些模型的实验中,甚至暗示了大脑为了满足能源限制必须进化成预测机器。
随着计算模型的增加,研究活体动物的神经科学家们也越来越相信大脑学习和推断感觉输入的原因。 关于大脑如何实现它的具体准确的细节还不清楚,但大体情况越来越清楚。
1 .感知中的无意识推论
预测处理最初看起来可能是一种违背直觉的复杂感知机制,但科学家们似乎没有其他更好的解释,所以一直偏向于它。 甚至在一千年前,穆斯林阿拉伯天文学家、数学家Hasan Ibn Al-Haytham在他的《光学书》中为了解释视觉的各个方面强调了预测处理的一种形式。 这个观点在20世纪60年代得到了大力支持,德国物理学家、医生Hermann von Helmholtz认为,大脑不是从这些输入“自下而上”构建感知,而是推断输入的外部原因。20世纪中叶的认知心理学家使用这张看起来像鸭子和兔子的图像研究了人类的感知
Helmholtz阐述了“无意识推理(unconscious inference )”的概念,说明了双稳态或多稳态感知,即一个图像可以通过不同的方法感知。 例如,像上面的照片这样模糊的图像,可以感觉到是鸭子,也可以认为是兔子。 我们的感知在两种动物的图像之间不断变化。 Helmholtz指出,在这种情况下,视网膜上形成的图像没有变化,因此感知必须是自上而下推测感觉信息原因的无意识过程的结果。
在20世纪,认知心理学家们不断提出,感知是一个主动建构的过程,它既参考了自下而上的感知,也参考了自上而下的概念性输入。
Richard Langton Gregory在1980年发表了一篇非常有影响力的论文《Perceptions as Hypotheses》。 在这篇论文中,作者认为感知错觉本质上是对大脑感官印象原因的错误推测。 同时,计算机视觉科学家们正在努力使用自下而上的重构,让计算机在没有内部“生成”模型的参照的情况下进行观察。
虽然预测处理的接受度不断提高,但其如何在大脑中实现的问题依然存在。 被称为流行预测编码的模型,被认为大脑中的信息处理水平有层次。 最高级代表最抽象和高级的知识。 例如,对前方阴影中的蛇的感知。 这个层通过向下发送信号来预测下一层的神经活动。 将下层的实际活动与上面的预测进行比较。 如果存在不匹配,层会生成向上流动的错误信号,从而允许上层更新内部表示。
该过程同时发生在每个连续层对上,直到接收实际感知到的输入的最底层。 如果从外部收到的信息和预期的结果之间有任何差异,则会产生错误的信号,从而在层次结构中产生波纹。 然后最上层最终更新了那个假设。 那不是蛇,只是地上卷曲的绳子。
'一般来说,预测性编码的原理是大脑基本上有两个神经元组,特别是应用于大脑皮层时,一个编码了当前对感知到的事物的最佳预测,另一个是该预测的错误信号' de Lange说。
1999年,计算机科学家Rajesh Rao和Dana Ballard分别在索尔克生物研究所和罗切斯特大学建立了强大的预测编码计算模型,其中有明确用于预测和纠错的神经元。 他们对灵长类的大脑视觉处理系统的部分路径进行了建模。 这个路径由负责识别脸部和物体的分层组织区域构成。 他们的研究表明,该模型可以再现灵长类视觉系统的罕见行为。但是,这项工作是在现代深度神经网络出现之前进行的。 深度神经网络包括输入层、输出层和介于输入层和输出层之间的多个隐藏层。 到2012年,神经科学家们开始使用深度神经网络模拟灵长类动物的腹侧视觉流。 但是,这些模型大部分是前馈网络,其中信息只从输入流向输出。 '大脑显然不是纯粹的前馈机。' 戴兰说:“大脑有和前馈信号一样多的反馈。”
于是,神经科学家们研究了另一类型的模型——递归神经网络(RNN )。 纽约西奈山伊坎医学院计算神经科学家和助理教授Kanaka Rajan表示,这些模型的特征将成为模拟大脑的“理想基质”,他的实验室使用RNNs了解大脑的功能。 RNNs的神经元之间存在前馈连接和反馈连接,与输入无关,一直持续活动。 Rajan说:“在这样长的时间内产生这些动态能力几乎是永久的,之后这些网络就可以接受训练了。” ' '
2 .预测是为了节能
RNNs引起了William Lotter和哈佛大学博士论文导师David Cox和Gabriel Kreiman的关注。
2016年,该团队组建了PredNet。 这是一个递归的神经网络,设计用来执行预测编码。 该团队按照预测编码的原则将RNN设计成四层分层结构,各层预测从其下层预测的输入,如果不匹配则向上发送错误信号。
威廉转子
然后,他们通过汽车摄像头拍摄的城市街道视频训练了这个网络。 PredNet学会了连续预测视频的下一帧。 ’我们起初不知道它是否真的起作用,但后来试了一下,发现它确实在进行预测。 这很酷,”Lotter说。
下一个阶段是将PredNet与神经科学联系起来。 在去年《Nature Machine Intelligence》杂志上,Lotter及其团队在报告中表示,PredNet对猴子大脑中看到的意外刺激做出了反应行动。 也包含了通过单纯的前馈网络难以复制的行为。
Kietzmann认为PredNet是一份很棒的工作。 但是,他和Marcel van Gerven以及他们的团队想要的是更根本的东西。 Rao、Ballard模型、PredNet都内置了用于预测和纠错的人工神经元,以及引起正确的自上而下预测来抑制错误神经元的机制。 但是,如果这些没有明确规定呢? Kietzmann说,他想知道由于限制,是否真的需要这些体系结构,或者是否可以用更简单的方法解决这个问题。
文/上海蓝盟 IT外包专家