虽然人工智能(AI)是当今最受欢迎的话题之一,但人们普遍遗忘的一个事实是,它实际上诞生于1950年,并在1956年至1982年期间经历了一个炒作周期。这篇文章的目的是强调在这个周期的繁荣阶段所取得的一些成就,并解释导致其萧条期的原因。从这个宣传周期中吸取的教训不应该被忽视——它的成功形成了今天使用的机器学习算法的原型,它的缺点指出了在有前景的研究和开发领域过度热情的危险。
开创性的问题
虽然第一代计算机是在第二次世界大战期间发展起来的,但似乎真正激发人工智能领域的是艾伦·图灵在1950年提出的一个问题:机器能模仿人类智能吗?在他的重要论文《计算机器与智能》中,他设计了一款名为“模仿游戏”的游戏,其中一个人、一台电脑和一个(人类)审讯者在三个不同的房间里。审讯者的目标是通过问他们一系列问题和阅读他们的打字回答来区分人类和计算机。计算机的目的是让询问者相信它是人。在1952年BBC的一次采访中,图灵建议,到2000年,在5分钟的会议之后,一般的审讯人员只有不到70%的几率能
正确地识别出人类。
图灵并不是唯一一个询问机器是否能模拟智能生命的人。1951年,马文·明斯基(MarvinMinsky),一名受早期神经科学研究启发的研究生,他指出大脑是由一个神经网络组成的,它的神经网络由全或无脉冲的脉冲组成,试图通过计算模型来模拟老鼠的行为。在与物理系研究生DeanEdmonds的合作下,他建立了第一个神经网络计算机。虽然原始(由大约300个真空管和马达组成),但它成功地模拟了老鼠在小迷宫中寻找食物的行为。
有可能创造出一台智能机器的想法确实是诱人的,并导致了后来的几项发展。例如,ArthurSamuel在1952年建立了一个象棋程序,这是世界上第一个自学程序。后来,在1955年,Newell,Simon和Shaw建立了逻辑学家,这是第一个模仿人类解决问题能力的程序,并最终证明了在Whitehead和Russell的数学原理中,第一个52个定理中的38个。
繁荣时期的开始
在这些成功的鼓舞下,年轻的达特茅斯大学教授约翰·麦卡锡于1956年组织了一次会议,召集了20名先锋研究人员,“探索制造一种能够像人类一样推理的机器,能够抽象思考、解决问题和自我提高”。在他1955年提出的这个会议上,“人工智能”这个词被创造出来,在这个会议上,人工智能获得了它的愿景、使命和宣传。
研究人员很快就开始大胆地宣称,强大的机器智能已经开始了。许多人预计,像人类一样聪明的机器将不会超过一代人的时间。
例如:
1958年,西蒙和纽维尔说,“十年之内,一台数字计算机将成为世界象棋冠军”,“十年之内,一台数字计算机将发现并证明一个重要的新数学定理”。
在1961年,明斯基写道,“在我们的有生之年,机器可能会在一般智力上超越我们”,1967年,他重申:“我相信,在一代人的时间内,很少有智力的空间会停留在机器的领域之外——创造‘人工智能’的问题将会得到充分的解决”。
在我们的有生之年,机器可能会超越我们人的智慧——马文·明斯基,1961。
人工智能甚至引起了好莱坞的注意。1968年,阿瑟·克拉克和斯坦利·库布里克制作了电影《2001:太空漫游》,他的对手是一台人工智能的电脑,HAL9000展示了创造力、幽默感和对威胁生存的人的阴谋。这是基于图灵、明斯基、麦卡锡和其他许多人所持的信念,即这种机器将在2000年以前存在;事实上,明斯基曾担任这部电影的顾问,其中一个角色维克多·卡明斯基(VictorKaminski)以他的名字命名。
人工智能的子领域诞生了
1956年至1982年间,人工智能在智能领域的蓬勃发展,催生了人工智能的几个子领域。这一研究的大部分成果,导致了现代人工智能理论的第一个原型。
基于规则的系统
基于规则的专家系统试图通过执行一系列“if---else”规则来解决复杂的问题。这种系统的一个优点是,它们的指令(当程序看到“如果”或“else”时应该做什么)是灵活的,可以由编码器、用户或程序本身修改。这类专家系统是由Feigenbaum和他的同事在上世纪70年代创建和使用的,其中许多是当今人工智能系统的基础模块。
机器学习
机器学习领域是由ArthurSamuel在1959年创造的,他说:“研究的领域使计算机能够在不被明确编程的情况下学习”。机器学习是一个广阔的领域,它的详细解释超出了本文的范围。本系列的第二篇文章——参见第一页的序言和——将简要讨论它的子字段和应用程序。然而,下面我们给出一个机器学习程序的例子,称为感知器网络。
机器学习是一门研究领域,它使计算机能够在不被明确编程的情况下学习——亚瑟·塞缪尔,1959年。
单层和多层感知器网络
根据McCulloch和Pitts在1943年和Hebb在1949年的工作,Rosenblatt在1957年引入了感知器网络作为一个人工神经元的通信模型。这个模型如图5所示,可以简单地描述如下。输入变量被输入的一层顶点连接到一个隐藏的顶点层(也称为感知器),它反过来连接到感知器的输出层。一个信号通过连接从输入顶点到感知机在隐藏层中,通过与该连接相关的“重量”来校准,这个重量是在一个“学习过程”中分配的。从隐藏层感知器到输出层感知器的信号以类似的方式进行校准。就像人类神经元一样,如果所有传入信号的总重量超过指定的电势,感知器就会“触发”。然而,与人类不同,这个模型中的信号只传输到输出层,这就是为什么这些网络通常被称为“前馈”。感知机网络只有一个隐藏的感知机层(即后来又被称为“浅”人工神经网络。尽管浅层网络的能力有限,Rosenblatt成功地创建了一个单层感知器网络,他称之为“创建的Mark1”,能够识别基本的图像。
如今,人们的兴奋之处在于“深层”(两个或更多隐藏的层)神经网络,这些神经网络在20世纪60年代也被研究过。实际上,深度网络的第一个通用学习算法可以追溯到1965年Ivakhnenko和Lapa的工作。Ivakhnenko在1971年曾考虑过深度为8层的网络,当时他还提供了一项训练他们的技术。
自然语言处理(NLP)
1957年,乔姆斯基用通用语法改革了语言学,这是一种基于规则的理解语法的系统[21]。这形成了第一个模型,研究人员可以使用它在20世纪60年代创建成功的NLP系统,包括SHRDLU,一个使用小词汇表的程序,并且能够部分地理解特定领域的文本文档[22]。在20世纪70年代早期,研究人员开始编写概念本体,即允许计算机解释单词、短语和概念之间的关系的数据结构;这些存在论现在广泛应用于。
语音识别和语音处理
1952年,美国电话电报公司贝尔实验室的三名研究人员首次提出了一种计算机是否能识别语音的问题,当时他们为单个扬声器建立了一个独立的数字识别系统。这个系统在20世纪60年代后期得到了极大的改进,当时Reddy创建了HearsayI,这个程序的准确性很低,但却是第一个将大量的词汇连续语音转换成文本的程序。1975年,他的学生贝克和贝克创建了“龙”系统,通过使用隐马尔可夫模型(HMM)进一步改进了HearsayI,这是一个统一的概率模型,允许他们组合各种来源,如声学、语言和语法。今天,HMM仍然是一个有效的语音识别框架。
图像处理和计算机视觉
在1966年的夏天,明斯基在麻省理工学院雇佣了一名大一的本科生,并要求他解决以下问题:将一台电视摄像机连接到一台电脑上,然后让机器描述它所看到的东西。其目的是从图像中提取出三维结构,从而使机器人的感觉系统能够部分地模仿人类的视觉系统。20世纪70年代早期的计算机视觉研究为今天存在的许多算法奠定了基础,包括从图像中提取边缘,标记线和圆圈,以及在视频中估计运动。
商业应用
上述理论的进步导致了一些应用,其中大部分在当时的实践中没有被使用,但为以后的商业应用奠定了基础。下面将讨论其中的一些应用程序。
聊天机器人
1964年至1966年间,魏岑鲍姆创造了第一个“查特-波特”(chat-bot),以ELIZADoolittle的名字命名,他在萧伯纳的小说《Pygmalion》(后来改编成电影《窈淑女》(MyFairLady))中被教导正确地说话。ELIZA可以进行对话,有时会欺骗用户,让他们相信他们是在和一个人交流,但是,碰巧的是,ELIZA只给出了通常无意义的标准回答。1972年晚些时候,医学研究者Colby创造了一个“偏执的”聊天机器人PARRY,它也是一个无意识的程序。然而,在简短的模仿游戏中,精神科医生无法区分帕里和偏执的人类的漫谈。
机器人
1954年,Devol建立了第一个可编程机器人Unimate,这是当时为数不多的商业化的人工智能发明之一;它是通用汽车公司在1961年购买的。1972年,美国早稻田大学的研究人员在Unimate上取得了显著的进步。1972年,他们建造了世界上第一个全尺寸智能仿人机器人。虽然它几乎是一个玩具,但它的肢体系统让它可以行走和握着,以及用手运送物品;它的视觉系统(由它的人工眼睛和耳朵组成)允许它测量物体的距离和方向;而它的人工口腔使它可以用日语进行交谈。这逐渐导致了机器视觉的创新性工作,包括创造可以叠加积木的机器人。
萧条期和人工智能冬季
尽管取得了一些成功,但到1975年,人工智能项目基本上限于解决基本问题。事后来看,研究人员发现了两种基本问题。
有限且昂贵的计算能力
1976年,世界上最快的超级计算机(它的成本超过了500万美元)只能每秒执行大约1亿次指令[34]。相比之下,Moravec1976年的研究表明,即使是人类视网膜上的边缘匹配和运动检测能力,也需要一台计算机以10倍的速度执行这样的指令。同样地,人类有大约860亿个神经元和1万亿突触;使用中提供的数据进行的基本计算表明,创建一个这种规模的感知器网络将花费1.6万亿美元,在1974年消耗整个美国的GDP。
人类思想背后的秘密
科学家不了解人类大脑的功能,尤其不知道创造力、推理和幽默背后的神经机制。对于机器学习程序究竟应该试图模仿什么,缺乏理解,这对推动人工智能理论的发展构成了重大障碍。事实上,在20世纪70年代,其他领域的科学家甚至开始质疑人工智能研究人员提出的“模仿人类大脑”的概念。例如,一些人认为,如果符号对机器没有“意义”,那么机器就不能被描述为“思考”。
最终,先驱者们发现,他们严重低估了制造一台能够赢得模仿游戏的人工智能电脑的难度。例如,1969年,Minsky和Papert出版了这本书,感知机,它们指出了Rosenblatt的一个隐藏的层感知器的严重局限性。这本书是人工智能的创始人之一,同时也证明了感知器的不足,这本书在近十年的时间里对神经网络的研究起到了严重的阻碍作用。
在接下来的几年里,其他研究人员开始分享明斯基对强大人工智能初期的怀疑。例如,在1977年的一次会议上,一位更加谨慎的约翰·麦卡锡(JohnMcCarthy)指出,创建这样一台机器需要“概念上的突破”,因为“你想要的是1.7个爱因斯坦和0.3个曼哈顿计划,而你首先要的是爱因斯坦。”我相信这需要5到500年的时间。
20世纪50年代的大肆宣传使人们对这种大胆的高度产生了预期,当1973年的结果没有实现时,美国和英国*撤回了对AI的研究经费。虽然日本*在1980年暂时提供了额外的资金,但在1980年代后期,它很快就幻灭了,并再次收回投资。这个半衰期(特别是在1974年到1982年之间)通常被称为“人工智能冬季”,因为当时人工智能的研究几乎完全停止了。事实上,在这段时间和随后的几年里,“一些计算机科学家和软件工程师会避免使用人工智能这一术语,因为他们害怕被视为*的梦想家”。
因为你想要的是1.7个爱因斯坦和0.3个曼哈顿计划,你首先要的是爱因斯坦。我相信这需要五到五百年的时间——约翰麦卡锡,1977年。
在1974-1982年期间,普遍的态度是非常不幸的,因为在这一期间发生的少数重大进展基本上没有引起注意,并作出了重大努力来重新创造它们。以下是两项这样的进展:
第一个是反向传播技术,它通常用于有效地训练神经网络,在它们的边缘分配接近最优的权重。虽然它是由几个独立的研究人员(如Kelley,Bryson,Dreyfus,Ho)在20世纪60年代引入的,并在1970年由Linnainmaa实施,但它主要被忽略了。类似的,1974年的Werbos论文提出,这种技术可以有效地用于训练神经网络,直到1982年,当萧条期接近尾声的时候才出版。1986年,Rumelhart、Hinton和Williams重新发现了这项技术,通过展示其实际意义使之普及。
第二种是递归神经网络(RNN),它类似于Rosenblatt的感知器网络,它没有前馈,因为它允许连接同时指向输入和输出层。在1974年,这种网络被认为是一种生物学上更精确的大脑模型。遗憾的是,直到1982年Hopfield普及了RNNs之后,RNNs才被发现,并进一步完善了它们。
结论
炒作周期的定义特征是繁荣阶段,当研究人员、开发商和投资者变得过于乐观和巨大的增长发生时,当投资被收回时,经济增长就会大幅下降。从本文介绍的故事中,我们可以看到人工智能在1956年和1982年经历了这样的一个周期。
从图灵和明斯基的想象中诞生出一台机器可以模仿智能生命,艾艾则从1956年麦卡锡在达特茅斯大学组织的会议上获得了它的名字、使命和宣传。这标志着人工智能炒作周期的开始阶段。从1956年到1973年,在人工智能领域,包括基于规则的系统,发现了许多具有穿透性的理论和实际进展;浅层和深层神经网络;自然语言处理;语音处理;和图像识别。在此期间所取得的成就形成了当前人工智能系统的初始原型。
在繁荣时期也发生了“非理性繁荣”。人工智能的先驱们很快就对人工智能机器的未来做出了夸张的预测。到1974年,这些预测没有应验,研究人员意识到他们的承诺被夸大了。到目前为止,投资者也开始怀疑并撤出资金。这导致了一个半衰期,也被称为人工智能冬季,当时人工智能的研究进展缓慢,甚至“人工智能”这个词也被拒绝了。在这一时期的大多数发明,如反向传播和反复的神经网络,在很大程度上被忽视了,在随后的几十年里花费了大量的精力去重新发现它们。
一般来说,炒作周期是双刃剑,而AI在1956年到1982年之间的表现也不例外。必须注意的是:它的繁荣阶段的成功应该被铭记和感激,但它的过度热情至少应该被一些怀疑的眼光看待,以避免对萧条阶段的全面惩罚。然而,像大多数的炒作周期一样,“萌芽”在上世纪80年代中期再次出现,在1983年和2010年,人工智能研究逐渐复苏;我们将在下一篇文章中讨论这些和相关的发展,“1983-2010年人工智能的复苏”。
大数据周刊
电话:010-57524293
众论大数据 引领大时代
长按二维码关注