人工智能的未来--神经科学启发的类脑计算综述

人工智能的未来--神经科学启发的类脑计算综述

作者简介:
@周岩
本科东北大学自动化专业,硕士毕业于东北大学软件工程专业,目前为东北大学流程工业综合自动化国家重点实验室控制理论与控制工程专业博士研究生。
博士期间的主要倾向于脉冲神经网络的可塑性的研究,涉及的领域知识包含计算神经学,机器学习,神经计算,计算智能等。目前的研究工作是利用Python对模拟生物神经元及脉冲神经网络建模,用来处理机器学习中的分类和回归任务。我的研究目标是融合神经科学与机器学习,让神经科学发挥其在人工智能领域的真正作用。
更多内容请见我的Github主页。

欢迎原链接转发,付费转载请前往 @留德华叫兽 的主页获取信息,盗版必究。
敬请关注和扩散本专栏及同名公众号,会邀请全球知名学者陆续发布运筹学、人工智能中优化理论等相关干货、知乎Live及行业动态:
『运筹OR帷幄』大数据人工智能时代的运筹学--知乎专栏

随着近几年深度学习的迅速发展,人工智能成为了无论学术界还是互联网领域的一个重要的研究热点。然而,人类在认识世界和改造世界的过程中从自然界和生物特征汲取了大量的灵感和经验。追根溯源,人工智能的发展离不开脑科学的研究。历史上,神经科学和人工智能两个领域一直存在交叉,对生物脑更好的理解,将对智能机器的建造上起到及其重要的作用。

脑科学是一门实践性很强的交叉学科,包含了神经科学,医学,数学,计算科学等多门学科。脑科学的目的是认识脑,保护脑和模拟脑,其中模拟脑是人工智能的重要灵感来源和终极目标。具体来说,模拟脑需要在神经生物学(Neurobiology)和计算神经学(Computational Neuroscience)基础上实现。神经生物学侧重研究神经元和突触等脑组织的生物学机理;计算神经学主要通过生物学机理对神经元以及神经突触等结构进行数学建模,并在模拟环境仿真以求其特征与生物脑相近。

人工智能是模拟脑的一项主要应用,现在深度学习这种生物学简化的模型有它的优点,具有很好的数学解释性,可以在现有的计算机架构(冯诺依曼)上实现,但是同样有瓶颈,例如:计算代价高,不利于硬件实现等。尽管近年来深度学习和大数据的出现使得这种模型在一些任务上超越人类,但是对于人脑可以处理的复杂问题却无能为力,同时需要大量的计算资源和数据资源作为支撑。

相反人类大脑是一个极度优化的系统,它的工作耗能仅为25瓦特,神经元的数量却在10的11次方的数量级上,并且这其中的突触也达到了每个神经元有10000个。这样庞大的网络却有如此低的能耗,这是使得人类大脑在复杂问题的处理有绝对优势。

因此,人们希望能模仿人脑的工作方式来处理信息,构建神经网络模型,成为了模拟脑的关键。类脑计算这一个研究方向逐渐受到各个国家的重视,例如在欧盟在2013年将“人脑计划”纳入其未来旗舰技术项目,2013年4月2日,美国总统奥巴马宣布启动了名为“通过推动创新型神经技术开展大脑研究(Brain Research through Advancing Innovative Neurotechnologies)”计划,简称为脑科学研究计划(BRAIN)[1],以及中国在2017年提出的“一体两翼”的脑科学与类脑科学研究,可以看到脑科学研究尤其是类脑计算将是继深度学习之后的又一大人工智能的突破点。目前许多国家专门成立的脑科学研究中心,例如哥伦比亚大学的基础脑科学研究中心,新加坡的a*star实验室,清华大学类脑计算研究中心等。


1. 类脑计算与神经网络的发展过程

早期的类脑计算(Brian-like Computing)也可以狭义的称为神经计算(Neural Computation),将神经元和突触模型作为基础,把这些模型用在许多现实中的识别任务,从而发挥模拟人脑功能,例如字体识别,人脸识别等等。这就不得不提到人工智能的基础理论——机器学习。机器学习是一门基于统计学习和优化理论发展而来的数据科学,在大数据和深度学习之前,人们主要把这些理论用来做数据挖掘(数据量相对较小),其中不乏一些十分优秀的算法,如逻辑回归,支持向量机(SVM),主成分分析(PCA),生成树,提升方法等。这些方法可以基于训练数据的统计特征通过优化方法得到模型参数,从而对测试数据做出预测或分类。

结合机器学习和神经元模型,最早的神经元网络是由美国计算机科学家罗森布拉特(F.Roseblatt)于1957年提出的感知机(perceptron),也被称为第一代神经网络。单层感知器是一个具有一层神经元、采用阈值激活函数的前向网络。通过对网络权值的训练,可以使感知器对一组输人矢量的响应达到元素为0或1的目标输出,从而实现对输人矢量分类的目的。感知机具有很强的数学基础,可以理解为多项式回归的变种形式,因为激活函数不可导,所以使用梯度法进行优化,最后得出一组权值参数。

感知机只能有单层,只能完成线性的分类和回归任务。后来发展出了多层感知机(Multi-layer Perceptron,MLP)并且激活函数使用可微分的sigmod函数代替。但是MLP在提出之初无法训练,因此后来又诞生了著名的反向传播(Back-propergation)算法。MLP可以称为第二代神经网络,也是现在深度学习基础的理论模型。

感知机和MLP的数学模型很多书都有详细介绍,这里不再赘述,具体可以参考《神经计算原理》(英文原版: Principles of Neurocomputing for Science & Engineering)和《机器学习导论》(英文原版:Introduction to Machine Learning)。

前两代神经网络都是在以数据科学为背景发展而来,将神经元的输入和输出抽象成向量和矩阵,神经元的功能主要是做矩阵的相乘运算。但是,实际上生物神经元对信息的处理不是由模拟数字组成矩阵,而是以脉冲形式出现的生物电信号,所以前两代神经网络仅保留了神经网络结构,而极大简化了网络中的神经元模型。

类脑计算的研究基础主要是以脉冲神经元模型为基础的神经网络。脉冲神经网络(Spiking Neural Network,SNN)由W.Maass在1997年首次提出,其底层用脉冲函数模仿生物点信号作为神经元之间的信息传递方式,可以算做第三代神经网络[2]

SNN的优点是具有更多的生物解释性,一方面可以作为计算神经学对生物脑现象模拟的基础工具;另一方面,由于其信息用脉冲传递的特点,SNN结构更容易在硬件上实现,如FPGA等片上系统(on-chip system)。但是,脉冲函数不可导,因此SNN不能直接应用梯度法进行训练,对SNN的学习算法一直是近年来主要的研究问题。


2. SNN的模型、结构以及在机器学习中的应用

SNN主要结构有前馈(Feedforward)循环链接(Recurrent)两种。前馈比较常见,从结构上说与传统的前馈神经网络相似,不同的是单个的神经元模型以及整个网络的数据处理方式。

SNN的神经元模型总体上来说是一类以微分方程构成的模型,带有时间属性。可以理解为传统的神经元只是当前时刻的输入与权重的加权和,SNN的神经元则是在一定宽度的时间窗内的输入与权重的加权和。其中最常见的神经元模型是L&F(Leak and Fire)模型,也可以把这种神经元看做为一个店带有电容的电路,按照电路原理来定义可以有如下形式:

图1. I&F神经元的模拟电路[3]

具体模型公式为:

\[\begin{align} & {{\tau }_{m}}\frac{du}{dt}=-u(t)+RI(t) \\ & {{t}^{(f)}}:u({{g}^{(f)}})=\upsilon \\ & \underset{t\to {{t}^{(f)}};t>{{t}^{(f)}}}{\mathop{lim}}\,u(t)={{u}_{r}} \\ \end{align}\]

其中 u 表示膜电位, I 表示输入突触电流,每当膜电位达到一个阈值 \nu ,便会产生一个脉冲,并将膜电位恢复到复位电位 u_r ,同时在一段时间内会产生一个不应期(refractory),在此期间,模电位保持在 u_r ,不对输入的突触电流做出响应。

L&F是一阶微分方程的形式,因此是一种线性响应模型,但是由于脉冲阈值以及不应期等机制的存在,使得L&F同样变成了一种对输入的非线性映射。

利用L&F构成网络就涉及到如何在神经元之间传递脉冲信号,这就是突触电流的响应模型。常用的电流模型是一种基于指数衰减的模型(与膜电位的模型很相似),改进的模型可以是两个衰减模型的叠加,来模拟平滑的脉冲信号(代替阶跃函数表示的脉冲):

\[I(t)=\sum\limits_{t}{C*(exp(-\frac{t}{{{\tau }_{1}}})-exp(-\frac{t}{{{\tau }_{2}}}))}*\delta (t-t_{i}^{(f)})\]

其中 \tau_1 \tau_2 是时间常数, \[\delta (t-t_{i}^{(f)})\] 是表示一个脉冲的单位阶跃函数。

由于SNN存在大量的微分方程计算并依赖于计算机仿真,SNN中的数值基本是通过数值方法计算的微分方程的状态。因此,具体的仿真过程中,与传统神经网络的最大区别在于时间步的概念,与硬件中的时钟十分相似。所以突触模型中还可以带有一个熟悉就是延迟(delay),可以和权重一样被训练成为表达输入特征的一个重要参数。目前SNN的学习算法很多基于脉冲的间隔的精确时间而不是一段时间的脉冲的数量来调整网络参数,如根据hebbian规则演变而来的STDP(Spike time dependance plasicity)。

\[\Delta w=\left\{ \begin{matrix} {{A}_{+}}\exp (-\Delta t/{{\tau }_{+}}) & if\Delta t\ge 0 \\ {{A}_{-}}\exp (-\Delta t/{{\tau }_{-}}) & if\Delta t\le 0 \\ \end{matrix} \right.\]

图2. STDP的生物学特性[4]

另一种结构是带有循环链接,主要的代表模型是液体状态机(liquid state machine, LSM)。模型结构属于水库计算[5](Reservoir Computing)的一种,是一种结构更复杂,用来处理高维时序问题的RNN(Recurrent Neural Network)结构[6, 7]。LSM的提出主要是通过循环链接表示了对时序问题的记忆能力,通过对输入的高维映射,可以用线性模型进行分类和回归。LSM的结构主要分为3层:1)输入层:主要负责将输入的模拟数值编码成脉冲序列(Spike Trains)并按照 一定比例输入到水库层中。2)水库层:根据生物脑中的神经元类型比例,包含80%的兴奋神经元和20%的抑制神经元,链接是随机的循环链接。3)输出层:读取每个水库层中神经元的状态,并用逻辑回归等进线性分类。

从机器学习的角度出发,SNN的应用主要分为分类和回归两种任务,这两种任务主要涉及到数据的组织和处理。因此,数据进入SNN之前需要先进行编码成为脉冲序列,经典的编码方式有频率(Rate),二进制(Binary),排序(Rank)等[4, 8]。


3. 类脑计算与人工智能的研究趋势

目前类脑计算的主要研究趋势分为三个方面:首先是基础的生物脑中的神经元,突触及记忆,注意等机制的建模;第二,基于生物机制建模的神经网络学习算法以及在模式识别等机器学习任务中的应用;最后,基于生物激励的算法和神经网络的硬件系统研究。

目前对于脑的认知机制的研究还存在很多空白,生物脑的运转机制的神秘面纱没有被彻底解开,只有少部分现象被发现[9]。脑建模是在认知脑的基础上进行的,目前的类脑计算算法还有很大的研究价值,目前发现的生物学机制只有少部分使用了计算神经学的方式进行模拟,被用在类脑计算中的机制则更加有限。另外,计算机仿真工具和数学的理论分析仍然不够完善,类脑计算没有形成统一的理论框架,面对大数据时代还没办法取代深度学习等成熟算法和工具的地位。在软件仿真方面,一些小规模的仿真工具相继出现,在研究类脑计算机理方面做出了一定贡献[10, 11]。由于近年来深度学习发展,同样有很多工作结合了深度学习相关概念进行了研究和探索[12, 13]。

能耗高一直是传统神经网络领域的一个难以解决的问题,目前只能通过云技术对小型便携设备和需要单独处理任务的设备提供快速响应的人工智能服务。而类脑计算具有更好的硬件亲和力,不需要复杂的硬件进行矩阵运算,只需在接收到脉冲时处理脉冲信号,计算效率得到很大的提高,目前已经有一些片上系统的原型出现,初步提供了SNN构建的人工智能框架[14, 15]。

总之,类脑计算还有很多工作需要完成,大量的有趣的、未知的和有挑战的问题需要解决,但这也是类脑研究的魅力所在。



参考文献:

[1] POO M-M, DU J-L, IP N Y, et al. China Brain
Project: Basic Neuroscience, Brain Diseases, and Brain-Inspired Computing [J].
Neuron, 2016, 92(3): 591-6.

[2] MAASS W. Networks of spiking neurons: The third generation of
neural network models [J]. Neural Networks, 1997, 10(9): 1659-71.

[3] GERSTNER W, KISTLER W M. Spiking neuron models: Single neurons,
populations, plasticity [M]. Cambridge university press, 2002.

[4] PAUGAM-MOISY H, BOHTE S. Computing with Spiking Neuron Networks
[M]. Springer Berlin Heidelberg, 2012.

[5] CHROL-CANNON J, JIN Y. Computational modeling of neural
plasticity for self-organization of neural networks [J]. BioSystems, 2014,
125(43-54.

[6] MAASS W. Liquid state machines: motivation, theory, and
applications [J]. Computability in context: computation and logic in the real
world, 2010, 275-96.

[7] MAASS W, NATSCHL GER T, MARKRAM H. Real-time computing without
stable states: A new framework for neural computation based on perturbations
[J]. Neural computation, 2002, 14(11): 2531-60.

[8] DAYAN P, ABBOTT L F. Theoretical neuroscience [M]. Cambridge, MA:
MIT Press, 2001.

[9] VOGELS T P, SPREKELER H, ZENKE F, et al. Inhibitory Plasticity
Balances Excitation and Inhibition in Sensory Pathways and Memory Networks [J].
Science, 2011, 334(6062): 1569-73.

[10] DIESMANN M, GEWALTIG M-O. NEST: An environment for neural systems
simulations [J]. Forschung und wisschenschaftliches Rechnen, Beiträge zum
Heinz-Billing-Preis, 2001, 58(43-70.

[11] GOODMAN D, BRETTE R. Brian: a simulator for spiking neural networks
in Python [J]. Frontiers in Neuroinformatics, 2008, 2(5):

[12] O'CONNOR P, WELLING M. Deep spiking networks [J]. arXiv preprint
arXiv:160208323, 2016,

[13] PANDA P, SRINIVASAN G, ROY K. Convolutional Spike Timing Dependent
Plasticity based Feature Learning in Spiking Neural Networks [J]. arXiv
preprint arXiv:170303854, 2017,

[14] WANG R C, COHEN G, STIEFEL K M, et al. An FPGA implementation of a
polychronous spiking neural network with delay adaptation [J]. Frontiers in
Neuroscience, 2013, 7(

[15] KHAN M M, LESTER D R, PLANA L A, et al. SpiNNaker: Mapping neural
networks onto a massively-parallel chip multiprocessor; proceedings of the 2008
IEEE International Joint Conference on Neural Networks (IEEE World Congress on
Computational Intelligence), F 1-8 June 2008, 2008 [C].


在此感谢『运筹OR帷幄』审稿人对本文提出了宝贵的意见。

『运筹OR帷幄』审稿人 @@文雨之,东北大学系统工程专业读博士,研究方向:数学优化、机器学习。

以上『运筹OR帷幄』专栏所有文章都会同步发送至 留德华叫兽的头条主页, 以及同名微信公众号,目前预计受众10w +


如果你是运筹学/人工智能硕博或在读,请在下图的公众号后台留言:“加微信群”。系统会自动辨认你的关键字,并提示您进一步的加群要求和步骤,邀请您进全球运筹或AI学者群(群内学界、业界大佬云集)。

运筹学|控制论|优化理论爱好者,欢迎加qq群:686387574

人工智能爱好者,欢迎加qq群: 685839321

数据科学|分析爱好者,欢迎加qq群:130414574

最后敬请关注和扩散本专栏及同名公众号,会陆续发布运筹学、人工智能中优化理论相关干货及行业动态:『运筹OR帷幄』大数据和人工智能时代下的运筹学 - 知乎专栏

编辑于 2018-04-17

文章被以下专栏收录

    运筹学,传统应用包括供应链、物流、航空、运输、交通、电网、通信、能源等,一门优化和决策的科学。最近,随着机器学习、人工智能的风靡,越来越多的人关注到其底层优化问题和算法的重要性,但鲜有人知研究优化理论的学科正是运筹学。本专栏在介绍运筹学科体系、传统应用的同时,也会大篇幅为大家讲解运筹学在人工智能、数据科学领域的角色和应用。欢迎全球运筹学者投稿(有稿费),共同为运筹学正名。也欢迎全球运筹学、AI硕博进运筹/AI学者微信学者群(关注同名公众号即可获取)。