我们的视觉神经细胞是怎么连接在一起的?

YYYYYYYY

写一点自己最近刚刚了解的关于视觉神经细胞之间连接形成的知识,因为刚刚对neuroscience开始有所了解,所以有描述不准确的地方请提出。

大家可以想象,我们的视神经细胞之间是有错综复杂的结构的,那我今天要写的就是对于这些复杂结构形成原理的解释,也就是说怎么/为什么会形成这样的细胞连接?

一个概念

首先,我们要介绍一个概念,叫Long-range horizontal connection(LRHC)。中文可以翻译成长距离水平连接?因为我找不到准确的中文翻译,这里下文就用LRHC指代。
要介绍LRHC,我们首先要介绍下初级视觉皮层V1(primary visual cortex)的结构。




上图是V1皮层的一个简单表示,可以看到V1可以被简单分成6个layer。每个layer的区别这里不再赘述。
  1. 如果我们对V1皮层进行一个垂直穿透(左图),那我们会得到一列视神经细胞,每一个都对视网膜同一个位置同样的方向的刺激响应,只不过它们的反应区大小不一样。
  2. 如果我们对V1皮层做一个水平穿透(右图),那我们会得到一行视神经细胞,它们对视网膜对一个位置不同方向的刺激进行响应,但它们的反应区大小一样。

那LRHC指的就是V1皮层同一层中,做水平穿透得到的行与行之间的视神经细胞之间的连接(见下图,其中原本在上图被水平放置的水平穿透得到的一行行细胞这里被转到竖直放置),这些连接增加了我们视觉皮层的复杂程度,而我们今天就是要解释为什么要有LRHC。


一个现象

简单了解了视神经皮层的结构和LRHC,那我们考虑一个具体情形:如果V1皮层被输入进去一副图片(下图上排左),那很可能在同一个位置,会有对不同方向响应的好多个细胞同时产生响应,只不过产生响应的程度不同(下图上排右)。而这多个细胞就是我们对V1皮层做水平穿透得到的一行视神经细胞中的若干个。我们可以把这个情形简单描述成下图下排中间的图片,可以看到这时候对同一个区域不同方向响应的视神经细胞会有各自不同程度的响应。我们把这种现象也叫做over-representation。

为什么

(1)为什么要有这么多细胞同时响应这样看似比较重复的机制?

(2)显然水平穿透得到的一行行对不同方向响应的细胞之间是有联系的,也就是LRHC,(之所以叫horizontal connection是因为这些连接都在V1的同一层里,比如第I层),那这些连接是怎么形成的?它们这样的连接方式又是为了什么?它们怎样在曲线检测(curve detection)中相互协助彼此?

对于这两个问题,我们可以用一句话来回答,LRHC是为了形成对不同曲率进行响应的细胞组。(如果只想知道结论那剩下的不用看了)那我们又有两个问题(1)为什么要对曲率进行响应?(2)怎样能对曲率进行响应?

进一步解释

对于我们新得到的两个问题,它们的原因是这样的

(1)有论文[1]证明,自然图像其实是一个Bernoulli mixture model,而这个mixture model每一个mixture component其实代表了一个曲率的图像。所以,我们的神经只要对每一个mixture component选择能力,每一组细胞负责一种曲率的mixture component,那我们是不是就可以高效的把所看到的自然图像进行识别了?所以,这里每一组LRHC都是为了形成这样的一种独特的mixture component selectivity。(这一段其实可以展开很多,比如为什么是bernoulli mixture model?某个mixture component到底长什么样子?)
(2)怎样才能对某种曲率进行响应呢?这也可以讲很多了。参考[2],作者把tensor learning 和 spike-timing-dependent-plasticity(STDP) 进行了结合,对STDP提出了一种解释:视神经中的STDP现象实际上是在形成对不同曲率响应的LRHC细胞组。
(2.1)具体来说,作者首先根据现在很火的tensor learning,对传统的BCM learning rule进行了修改,其中,这个BCM learning rule就是之前B、C、M三个科学家提出的对于细胞间连结调整的一种计算模型,但是这个模型在输入为mixture model时,表现并不好,并不能学习出某一个单一的mixture component,所以自然不能令人满意。但是[2]中的作者,对这个BCM learning rule加入了multi-view assumption,简单来说就是,两个细胞的调整,不仅要依赖于同一时间presynaptic neuron和postsynaptic neuron的活动程度(activity level),来依赖于之前两个时间窗pre/post-synaptic neuron的活动程度。这也就为原来的仅仅是一维的BCM learning rule加入了高阶信息(high-order information)。而正是这样的high-order information,让神经细胞可以对曲率进行选择。注意,曲率本身就是一种高阶信息(三阶),所以这就和(1)对应了起来。
(2.2)那怎么结合STDP呢?我们可以把[2]中提出的新的BCM learning rule,进行一定的修改,然后用得到的模型去fit测量得到的STDP数据,注意,STDP实际是一种生物过程,所以是有测试数据的。结果呢?新的model和STDP数据拟合地非常好!
(2.3)那这说明了什么呢?首先,BCM learning rule可以解释STDP。其次,BCM learning rule等价于对输入做tensor learning从而学习mixture component。综上两点,我们得到了什么结论?
STDP让我们的神经形成了对于不同曲率相应的LRHC细胞组!

What a story!

P.S. 第一次写科普类回答,难免表达有问题,有不明白的地方请提出,我尽量解答。而且本身这里面还有很多小地方可以展开说很多,时间篇幅有限,有机会我会慢慢展开。我本身也是刚刚从数学坑来到神(经科)学坑,有些概念可能理解不是很准确,也请提出,谢谢!

[1] Lawlor, M.Zucker, S.Third-Order Edge Statistics: Contour Continuation, Curvature, and Cortical ConnectionsAdvances in Neural Information Processing Systems 26 (NIPS 2013)2013
[2] Lawlor, M.Zucker, S.Feedforward learning of mixture modelsAdvances in Neural Information Processing Systems 27 (NIPS 2014)2014

文章被以下专栏收录
24 条评论
推荐阅读