哈哈,看到了一篇我最感兴趣的领域的新闻报导,可以深挖里面的各种细节。
Quanta Magazine: Illuminating Science - 原文出处
卡内基·梅隆大学 - Tai Sing Lee 谷歌学术 大学官网(真牛逼,论文多,引用率高)
Intelligence Advanced Research Projects Activity (IARPA) 高级智能研究计划 Wiki
Wei-Chung Allen Lee - Instructor in Neurobiology, Harvard Medical School (也是各种nature)
Anatomy and function of an excitatory network in the visual cortex – 2016 (文中的nature文章)
Andreas Tolias Lab | Baylor College of Medicine - 实验室主页
Response to Comment on “Principles of connectivity among morphologically defined cell types in adult neocortex”-2016 (文中的science论文)
以下是转载的原文:
带三岁小孩去动物园,不用你说她就知道,那个脖子长长、嚼着树叶的动物就是图画书上的长颈鹿。乍看起来这没什么了不起的,但实际可不简单。
书本上只有简单的线条,勾勒出死板的轮廓,但有血有肉的动物却充斥着颜色、质感、动作和光线,而且每个角度的样子都不一样。
这是人类的专长。只要少少的几个例子,我们就能抓住重要特征,从陌生事物中识别出它们。如果换成人工智能程序,则要消化一整个长颈鹿数据库,从各种不同背景和视角加以观察,才能“认识”它们。
视觉识别是人类胜过计算机的诸多领域之一。我们还擅长从大量数据中找出相关信息,解答非结构化问题,善于无监督学习,就像婴儿在玩积木时,顺便就认识了重力的作用。
“相对计算机来说,人类更像是个多面手。”卡内基梅隆大学计算机科学家、神经科学家李泰兴(Tai Sing Lee,音)说,“我们的思维更灵活一些,可以预见、想象和创造未来。”
美国的情报部门资助了一个野心勃勃的新计划,名为智能高级研究项目(IARPA),其目标就是要让人工智能更接近人类智力。该项目由三个团队组成,研究人员包括神经科学家和计算机科学家,他们试图探明大脑的视觉识别原理,然后用机器加以效仿。
“目前的机器学习做不到的,正是人类最擅长的。”该计划负责人雅各布·沃格尔斯坦(Jacob Vogelstein)说,“我们想对人脑的算法和计算方式进行逆向工程,掀起一场机器学习技术革命。”
时间紧迫。目前,每个团队负责给一小块大脑皮层建模——其精细程度前所未见,然后基于研究结果来开发相应算法。到明年夏天,每种算法都要接受测试:拿到一个陌生物件,在无标记数据库内,从数千张图片中挑出同类物件。
“这个时间要求很紧张。”艾伦脑科学研究所所长兼首席科学家克里斯托夫·科赫(Christof Koch)说,他正与其中一个团队合作。
当前,科赫正和同事们一起,为一小块大脑组织创建出完整的“布线图”。这块脑组织的体积是100万立方微米,只相当于一粒芝麻的五百分之一。相比于迄今为止最大的完整布线图,它又大了好几个数量级。后者于去年6月发布,耗时六年完成。
IARPA项目又名“皮层网络机器智能”,简称Microns,为期五年。最终,研究人员将绘制出一个1立方毫米的皮层图谱。看着很小一块,但内含10万个左右的神经元、300到1500万个神经元连接(即突触),所有神经元若是一字排开,长度足足有4公里。
以如此大的规模重构大脑,在历史上尚属首次。但小规模的尝试表明,通过这些图谱,我们能一窥大脑皮层的内部机制。
在3月份发表于《自然》杂志的一篇文章中,哈佛大学神经科学家艾伦·李(Wei-Chung Allen Lee)与合作者们绘制出了50个神经元及其1000多个连接对象的布线图。
他们将图谱与每个神经元的功能匹配起来——比如,一些神经元专门响应纵向视觉输入——然后推导出一个简单的规则,这个规则限定了这部分神经元的解剖学连接方式。
他们发现,功能类似的神经元更容易彼此连接,而且,同类神经元连接的紧密程度也要超过非同类神经元。目前,艾伦·李正与科赫的团队进行合作。
IARPA资助各项研究,为的是给情报部门提供数据分析工具,所以,它的目标是取得技术上的突破,但首先还是要进一步理解大脑。贝勒医学院神经科学家安德烈亚斯·托利亚斯(Andreas Tolias)打了个比方:目前我们对大脑皮层的认知,就好比一张模糊的照片。
他希望,Microns项目能使这张照片变得更加清晰,在神经回路中发现更加复杂的规则。不掌握其所有构成部分,按照他的说法就是:“我们可能就看不到它的结构之美。”托利亚斯目前担任科赫团队的负责人之一。
人脑的处理单元
人脑的表面覆盖着百转千回的褶皱,形成大脑皮层。它们相当于比萨饼大小,揉皱了塞入头骨内。从很多层面上讲,它都是大脑的微处理器。这层组织约有三毫米厚,由一系列重复模块(微回路)构成,类似于计算机芯片中的逻辑门阵列。
每个模块由大约10万个神经元组成,形成错综复杂的网络。有证据表明,在整个大脑皮层内,这些模块的基本结构都大致相同。然而,不同区域的模块服务于不同的目的,例如视觉、运动或听觉等。
安德烈亚斯·托利亚斯(左)与他的学生R.J.科顿(R.J.Cotton)。
对于这些模块的形态和运转方式,科学家只有一个大概的了解。之前的大脑研究一般局限在更小的范围内,比如几十或数百个神经元。
现在的技术已经能绘制出几万个神经元的形态、活动和连接,研究人员终于能以模块为对象,分析内部神经元的互动方式,以及在某个系统中,这部分如何激活或抑制其他部分的活动。
“这是我们头一次能够直接从模块中提取信息,而不是单靠猜测。”沃格尔斯坦说,“不同的团队总有不同的猜测。”
研究人员将聚焦于皮层的视觉处理区。视觉系统一直是神经科学家探究的对象,也是计算机科学家长期想要效仿的东西。
“看东西好像很简单——只要睁开眼睛就行了,但要教计算机学会‘看’,那可就难了。”哈佛大学神经科学家大卫·科克斯(David Cox)说,他领导着三个IARPA团队的其中一个。
针对视觉的工作原理,每个团队的切入点都一样,即合成分析法。根据这种几十年前创立的理论,大脑会预测近期事件,然后再与亲眼所见对应起来。这种方法的优势在于效率——相对于每时每刻都将认知推翻重建,它所需的计算量要小得多。
大脑执行合成分析的途径有很多,所以各个团队探索的可能性不尽相同。科克斯的团队将大脑视为一种物理引擎,它使用已有的物理模型,模拟出世界的样貌。
而由乔治·彻奇(George Church)和李泰兴共同带领的团队则认为,大脑有一个现成的零件库,它会学习零件的组装原则,比如,叶子一般长在树上。
而托利亚斯的团队正在探究一种数据驱动型的模式,按照这种模式,大脑针对其所处的世界,创建统计学预期。他的团队将测试各种假设,以了解在同一个回路中,各部分是如何交流的。
三个团队都将观测一小块大脑中数万个神经元的活动,然后用不同的方法,创建神经元布线图。
例如,科克斯的团队会将脑组织切片,得到比头发丝更薄的层,然后用电子显微镜逐一分析,最后再用计算机,将每个横截面依次拼接起来,创建出密集的三维图谱,进而绘制出这些神经连接在皮层中的复杂路径。
利用图谱和活动模式,各团队将梳理出一些控制回路的基本规则。然后将规则编入计算机模拟,与真实大脑一较高下。
托利亚斯与合作者已经尝到了这种研究方式的甜头。在11月发表于《科学》杂志的论文中,他们绘制出了11,000对神经元之间的连接,并发现了五种新型神经元。
“我们还没有列出大脑皮层的完整组件,单个神经元是什么样子,它们是如何连接的,我们都不知道。”科赫说,“但托利亚斯已经开始这方面的研究。”
托利亚斯等人绘制出神经元之间的连接,并将它们的脑电活动记录下来。从解剖学上看,五个神经元(左上)显得很复杂,但它们可以归结为一个简单的回路(右上)。给2号神经元注入电流,使之放电。下游神经元(1号和5号)的状态随之改变。
托利亚斯的团队发现,这些神经元的连接受制于三条一般性规则:有的主要与同类神经元沟通;有的避开同类,主要与其他类别的神经元沟通;有的只与几个特定的神经元沟通。
参照这三个布线规则,研究人员可以准确地模拟出神经回路。“现在的难题是,这些布线规则怎么用算法表达出来?”托利亚斯说,“它们在进行何种计算?”
目前在使用的神经网络欠缺了什么?
用人工智能来模拟人脑运转机制并非新生事物。早在上世纪80年代,科技界就盛行所谓的神经网络,模仿的是大脑的基本结构。
但限于当时的运算能力,加之缺乏可用的训练数据,算法难有用武之地。毕竟当年,互联网上还没有那么多带有“猫”标签的图片。
如今,神经网络强势复兴,比如,迅速进入寻常百姓家的语音和面部识别,就建立在神经网络算法的基础之上;AlphaGo也是,这台电脑在今年初打败了韩国国手李世乭。不过,在更改连接时,人工神经网络采用的规则肯定不同于人脑。
当代神经网络“根据的是60年代对大脑的认知。”索尔克研究所(Salk Institute)计算神经科学家泰瑞·塞诺斯基(Terry Sejnowski)说,“而我们对大脑架构的认知已经出现了爆发式增长。”塞诺斯基曾与多伦多大学的计算机科学家杰弗里·辛顿(Geoffrey Hinton)一起,开发过早期的神经网络算法。
例如,当前的神经网络属于一种前馈结构,信息从输入逐层流向输出。每层负责识别某种特征,比如眼睛或胡须,然后馈给下一层,每进一层,涉及的计算就更复杂一些。如此以往,最终,程序将一堆彩色的像素识别出来——是一只猫。
但光有前馈结构还不行,它漏掉了生物体的重要组成部分:反馈。不但每个层内有反馈回路,高层级和低层级之间也存在反馈回路。
在人脑皮层中,同一个层中的神经元就近相连,又与上层和下层中的神经元连接,从而产生错综复杂的环路网络。“在皮层网络中,反馈连接的重要性非同小可。”塞诺斯基说,“前馈连接有多少,反馈连接就有多少。”
这些反馈回路究竟有何作用?我们并不了解。但我们知道一点:对人的注意力而言,反馈回路至关重要。
举个例子,我们可以专心听电话,自动忽略周围噪音的干扰,这就与反馈结构有关。合成分析理论的魅力之一在于,它解释了这些回路为何反复出现——它们能帮助大脑对照预测与现实。
Microns研究人员试图破译反馈回路的规则——例如这些回路连接哪些神经元,在何种物质的刺激下产生活动,这些活动如何影响回路的输出——然后将规则转换成算法。
“当前的人工智能缺的是想象和内省。我认为,正是由于反馈回路的存在,我们才能进行不同程度的想象和内省。”李泰兴说。
也许有一天,在反馈回路的帮助下,机器智能将具备“人类独有”的能力。
“如果你能在深度网络中成功部署反馈回路,你拥有的就不再是膝跳反射式的网络——给予输入,获得输出——而是一种思考能力更强的网络,它可以反思输入,并测试一系列假设。”塞诺斯基说。
意识的蛛丝马迹
和所有的IARPA项目一样,Microns的风险也很高。要大规模绘制神经元活动及布线,研究人员需要技术的帮助,这类技术虽已存在,但从未应用于此等规模。
挑战之一在于,研究过程会产生巨量数据——每立方毫米大脑就能产生一两个PB的数据,如何处理还是个问题。这些团队可能需要开发新的机器学习工具,才能对其加以分析——这本身就是个反馈循环。
还有一个问题:我们对一小块大脑的理解,能否用来解释那些更高等级的能力。“大脑不只是一片皮层。”塞诺斯基说,“大脑由数百个系统组成,每个系统都有不同的功能。”
就大脑皮层而言,它由很多基本类似的重复单元组成。但大脑还有其他部分,它们的运作可能大不一样。
例如,AlphaGo算法用到了强化学习,它和基底神经节有关,而这个脑区又与成瘾性有关。“如果你不满足于人工智能只能进行简单的模式识别,你就得研究很多不同的大脑区域”塞诺斯基说。
该项目一旦成功,它的作用就不仅限于分析情报数据那么简单了。一个成功的算法能揭示出大脑是如何理解世界的,呈现出其中的关键事实。
具体而言,它将证明,大脑确实是通过合成分析法来运行的——对世界做出预测,然后与感官输入数据进行比对。它还将证明,意识构成中的关键成分之一,就是想象力与感知的混合,并且这种混合形式不断发生着变化。
“通过想象力,我们得以预测未来,并以此指导行动。”李泰兴说。研究人员希望,通过构建会思考的机器,最终能揭示思维本身的奥秘。
翻译来自:造就 微信公众号
翻译:雁行
来源:Quanta Magazine