初学者必知:人工智能简史概览!

发表时间: 2024-07-17 21:34

最近这两年,随着AIGC大模型的崛起,整个社会掀起了一股强劲的AI浪潮。


人们在关注AI,企业在拥抱AI,资本在追逐AI。凡是和AI有关的概念,都会吸引大量的目光。


那么,AI是如何一步一步走到今天的呢?它经历了哪些发展阶段,又发生过哪些精彩的故事?


今天这篇文章,我们就来仔细回顾一下,人类AI的发展历程。



萌芽阶段


人类对人造智能体的追求和畅想,最早可以追溯到古希腊时代。


在古希腊神话中,火与工匠之神赫菲斯托斯,曾经制作了一组金制的女机器人,“有心能解意,有嘴能说话,有手能使力,精通手工制造”。


在中国的古代史籍中,也出现过“人工智能”的影子。


《列子·汤问篇》中,偃师向周穆王进献了一个机械人,会唱歌、会跳舞,还会挑逗周穆王的嫔妃。周穆王醋意爆发,认为机械人是真人假扮,要杀掉偃师。偃师赶紧将机械人拆散,周穆公才罢休。


上面的这些文字记载,显然都不靠谱。在遥远且漫长的古代,以人类当时的技术水平,肯定是造不出智能体的。能造出一些简单的机械(例如诸葛亮的木牛流马),都已经很了不起了。


人们对智能体的寄望,很多都依托于鬼神等宗教信仰——将人的灵魂附身于机械,才能够实现“人工智能”。


到了近现代,随着工业革命的爆发,人类开始逐渐进入机械计算、电气计算时代。计算能力的不断增长,使得通过“算力”来驱动“智能”,成为一种可行选项。


17世纪,莱布尼茨、托马斯·霍布斯和笛卡儿等率先提出:是否可以将人类理性的思考系统,转化为代数学或几何学体系?


莱布尼茨认为:“人类的思想,可以简化成某种运算。”


霍布斯也提出:“推理就是计算。”


这些伟大的思想,为后来的计算机和人工智能发展指明了方向。


再后面的事情,大家都比较清楚了——


在查尔斯·巴贝奇(Charles Babbage)的分析机、赫尔曼·何乐礼(Herman Hollerith)的制表机、阿兰·图灵(Alan Turing)的图灵机,以及Z3、珍妮机、Mark I、ENIAC等一系列发明的接力推动下,人类终于进入了数字电子计算机时代,也开启了波澜壮阔的信息技术革命。(不清楚的,看这里:算力简史)



第一次高潮阶段(1950年-1973年)


  • 图灵测试


数字电子计算机正式诞生之后,很快就有科学家开始探索,是否可以通过计算机来实现“智能”。


1950年,阿兰·图灵在《心灵(Mind)》杂志上发表了一篇非常重要的论文,名叫《计算机器与智能(Computing Machinery and Intelligence)》。


阿兰·图灵(1912-1954)


在论文开头,他就提出了一个灵魂之问:


“I propose to consider the question, ‘Can machines think?’"

“我提议思考这样一个问题:‘机器可以思考吗?’”


图灵在论文中仔细讨论了创造“智能机器”的可能性。由于“智能”一词很难定义,他提出了著名的图灵测试(以下为大致意思):


“一个人在不接触对方的情况下,通过一种特殊的方式和对方进行一系列的问答。如果在相当长时间内,他无法根据这些问题判断对方是人还是计算机,那么,就可以认为这个计算机是智能的。”


图灵测试


图灵的论文,在学术界引起了广泛的反响。越来越多的学者被这个话题所吸引,参与到对“机器智能”的研究之中。其中,就包括达特茅斯学院的年轻数学助教约翰·麦卡锡(J. McCarthy),以及哈佛大学的年轻数学和神经学家马文·明斯基(M. L. Minsky)。


  • 达特茅斯会议


1955年9月,约翰·麦卡锡、马文·明斯基、克劳德·香农(C. E. Shannon)、纳撒尼尔·罗切斯特(N. Rochester)四人,共同提出了一个关于机器智能的研究项目。在项目中,首次引入了“Artificial Intelligence”这个词,也就是人工智能。


1956年6月,在刚才那4个人的召集下,在洛克菲勒基金会的资助下,十余位来自不同领域的专家,聚集在美国新罕布什尔州汉诺威镇的达特茅斯学院,召开了一场为期将近两月的学术研讨会,专门讨论机器智能。


这次研讨会,就是著名的达特茅斯会议(Dartmouth workshop)。


参加会议的部分大佬


达特茅斯会议并没有得出什么重要的结论或宣言,但是认可了“人工智能(Artificial Intelligence)”的命名,也大致明确了后续的研究方向。


这次会议,标志着人工智能作为一个研究领域正式诞生,也被后人视为现代人工智能的起点。


  • AI三大学派


达特茅斯会议之后,人工智能进入了一个快速发展阶段。参与研究的人变得更多了,而且,也逐渐形成了几大学术派系。


在这里,我们要提到人工智能最著名的三大学派——符号主义、联结主义(也叫联接主义、连结主义)、行为主义。



符号主义是当时最主流的一个学派。


他们认为,世界中的实体、概念以及它们之间的关系,都可以用符号来表示。人类思维的基本单元,也是符号。如果计算机能像人脑一样,接收符号输入,对符号进行操作处理,然后产生符号输出,就可以表现出智能。


这个思路,关键在于把知识进行编码,形成一个知识库,然后通过推理引擎和规则系统,进行推断,以此解决复杂的问题。


符号主义早期的代表性成果,是1955年赫伯特·西蒙(Herbert A. Simon,也译为司马贺)和艾伦·纽维尔(Allen Newell)开发的一个名为“逻辑理论家(Logic Theorist)”的程序。


“逻辑理论家”被认为是人类历史上第一个人工智能程序,并且在达特茅斯会议上进行了演示。它将每个问题都表示成一个树形模型,然后选择最可能得到正确结论的那条线,来求解问题。


1957年,赫伯特·西蒙等人在“逻辑理论家”的基础上,又推出了通用问题解决器(General Problem Solver,GPS),也是符号主义的早期代表。


进入1960年代,符号主义也进入了一个鼎盛时期。在自然语言理解、微世界推理、专家系统(注意这个词,后面会再次提到它)等领域,人工智能取得了突破性的进展,也逐渐成为公众关注的对象。


1958年,约翰·麦卡锡正式发布了自己开发的人工智能编程语言——LISP(LIST PROCESSING,意思是"表处理")。后来的很多知名AI程序,都是基于LISP开发的。


约翰·麦卡锡(1927-2011)


1966年,美国麻省理工学院的魏泽鲍姆(Joseph Weizenbaum),发布了世界上第一个聊天机器人——ELIZA。


ELIZA的名字源于萧伯纳戏剧作品《卖花女》中的主角名。它只有200行程序代码和一个有限的对话库,可以针对提问中的关键词,进行答复。


ELIZA其实没有任何智能性可言。它基于规则运作,既不理解对方的内容,也不知道自己在说什么。但即便如此,它还是在当时引起了轰动。ELIZA可以说是现在Siri、小爱同学等问答交互工具的鼻祖。


魏泽鲍姆(坐者)正在与ELIZA对话


再来看看联结主义


联结主义,强调模仿人脑的工作原理,建立神经元之间的联结模型,以此实现人工神经运算。


大家可能会有点激动。没错,这就是现在非常热门的神经网络模型。


神经网络的概念其实诞生得很早。1943年,美国神经生理学家沃伦·麦卡洛克(Warren McCulloch)和数学家沃尔特·皮茨(Walter Pitts),基于人类大脑的神经网络,创建了一个形式神经元的计算机模型,并将其取名为MCP(McCulloch&Pitts)模型。


沃尔特·皮茨(左)和沃伦·麦卡洛克(右)


MCP模型


1951年,马文·明斯基(就是前面提到的那个)和他的同学邓恩·埃德蒙(Dunn Edmund),建造了第一台神经网络机SNARC。


1957年,美国康奈尔大学的心理学家和计算机科学家弗兰克·罗森布拉特(Frank Rosenblatt),在一台IBM-704计算机上,模拟实现了一种他发明的叫“感知机 (Perceptron) ”的神经网络模型。


弗兰克·罗森布拉特和他的感知机


这个“感知器”包括三层结构,一端是400个光探测器,模拟视网膜。光探测器多次连接一组512个电子触发器。当它通过一个特定的可调节的兴奋阀值时,就会像神经元一样激发。这些触发器连接到最后一层,当一个物体与感知器受训见过的对象相互匹配时,它就会发出信号。


感知机的工作原理


“感知机”是联结主义的一项重要成果,在人工智能发展史上具有里程碑式的意义。但是,后来的一盆冰水,彻底浇灭了联结主义的热情。


1969年,马文·明斯基和西蒙·派珀特(Seymour Papert)写了一本书《感知机: 计算几何学导论》的书,对罗森布莱特的感知器提出了质疑。马文·明斯基认为:


“神经网络具有很大的局限性(单层感知机无法解决线性不可分问题),没有实际研究价值。”


马文·明斯基(1927-2016)


来自大神的否定,等于直接宣判了神经网络(联结主义)路线的死刑。于是,这个非常有价值的研究方向,被中止了。


罗森布莱特后来死于意外(也有人说是自杀),马文·明斯基也因为这个错误的判断,被一些学者抨击。(需要注意,马文·明斯基虽然有误判,但他对人工智能事业的功远大于过,甚至也被誉为“人工智能之父”。)


等到神经网络(联结主义)重新崛起,已经是十多年后的事情了。我们待会再详细说。


最后,说说行为主义


行为主义,也称为进化主义或控制论学派。他们认为,通过与环境的互动来学习和适应,从而改进自身行为,就是行为主义认为的智能。智能取决于感知和行动,不需要知识、表示和推理,只需要将智能行为表现出来就好。


简单来说,行为主义AI系统基于“感知-动作”的闭环控制,强调即时反馈和适应性学习。智能体通过感知环境信息,基于这些信息执行动作,并根据动作结果调整后续行为。


行为主义在后来的机器人学、自动化控制、游戏AI、自动驾驶汽车等领域有着重要应用。


好了,以上是AI三大重要学派的介绍,作为学习AI的知识铺垫,也有助于阅读后面的文章。


请大家注意,AI的学派和思想路线并不止这三个,还有一些小学派,例如进化计算、模糊逻辑、贝叶斯网络等。它们虽不构成独立的大学派,但在AI的某些子领域内有着重要的应用和影响。而且,AI学派之间,边界也比较模糊,有时候会互相融合。


  • 其它重要成果


再简单介绍一下当时另外几项重要的研究成果。


首先必须是亚瑟·塞缪尔(Arthur Samuel)的跳棋程序。


1959年,IBM科学家亚瑟·塞缪尔在自家首台商用计算机IBM701上,成功编写了一套西洋跳棋程序。这个程序具有“学习能力”,可以通过对大量棋局的分析,逐渐辨识出“好棋”和“坏棋”,从而提高自己的下棋水平。


这个程序很快就下赢了萨缪尔自己,后来,它还战胜了当时的西洋跳棋大师罗伯特尼赖。


因为首次提出了“机器学习(Machine Learning)”的概念,亚瑟·塞缪尔被后人誉为“机器学习之父”。


亚瑟·塞缪尔(1901-1990)


1959年,美国发明家乔治·德沃尔(George Devol)与约瑟夫·英格伯格(Joseph Engelberger)发明了人类首台工业机器人——Unimate。


Unimate重达两吨,安装运行于通用汽车生产线。它可以控制一台多自由度的机械臂,搬运和堆叠热压铸金属件。


左图为Unimate 右图是约瑟夫·英格伯格(左)、乔治·德沃尔(右)


1966年,查理·罗森(Charlie Rosen)领导的美国斯坦福研究所(SRI),研发成功了首台人工智能机器人——Shakey。


Shakey全面应用了人工智能技术,装备了电子摄像机、三角测距仪、碰撞传感器以及驱动电机,能简单解决感知、运动规划和控制问题。它是第一个通用移动机器人,也被称为“第一个电子人”。


研究人员正在调测Shakey



第一次低谷阶段(1974年-1979年)


刚才说了,1960年代是符号主义的鼎盛时期。其实,在符号主义的带动下,当时整个人工智能研究都进入了一个高速发展的阶段,也被称为AI的黄金时代(Golden Time,1960-1973年)。


那时,除了定理证明、人机互动、游戏博弈和机器人之外,人工智能很多领域都产出了不错的成果。加上冷战时期,美国政府愿意掏钱资助,使得AI研究变得异常火爆。


在这一背景下,学术界对AI的预期,开始变得盲目乐观。有些研究者认为:


“二十年内,机器将能完成人能做到的一切工作。”


1970年,马文·明斯基甚至放言:


“在未来3-8年内,会诞生和人类智慧相当的机器人,可能我们人类会成为AI的宠物。”


盲目的乐观,肯定不会有什么好结果。


随着时间的推移,学者们逐渐发现,基于推理规则的“智能”,实际上能力非常有限。加上当时计算机的算力和存力尚处于早期阶段,系统根本达不到预期的效果。


之前介绍的那些AI程序和工具,陆续开始出现瓶颈,甚至闹出笑话。


以机器翻译为例。当时美国政府投入了2000多万美元作为机器翻译的经费,结果相关团队研发多年,发现完全低估了这个项目的难度。


翻译工具经常出现一些低级错误。例如,将“Out of sight,out of mind(眼不见,心不烦)”翻译成“又瞎又疯”,把“The spirit is willing but the flesh is weak(心有余而力不足)”翻译成“酒是好的,但肉变质了”,把“Time flies like an arrow(光阴似箭)”翻译成“苍蝇喜欢箭”。


接二连三的失败,慢慢耗尽了政府金主的耐心。加上不久后美国经济出现了一些问题(1974-1975年出现历史上罕见的连续两年GDP负增长),政府开始决定“断粮”。


1973年,数学家莱特希尔(Lighthill)向英国政府提交了一份关于人工智能的研究报告(著名的《莱特希尔报告》)。报告对当时的机器人技术、语言处理技术和图像识别技术进行了严厉且猛烈的批评,指出人工智能那些看上去宏伟的目标根本无法实现,研究已经彻底失败。


很快,英国政府、美国国防部高级研究计划局(DARPA)和美国国家科学委员会等,开始大幅削减甚至终止了对人工智能的投资。


人工智能进入了第一个发展低谷,也被称为“AI Winter(AI之冬)”。



第二次高潮阶段(1980年-1987年)


AI之冬的持续时间其实并不是很久。六年后,1980年,第二次AI发展高潮开始了。


第二次浪潮,其实还是符号主义掀起的。这次的主角,是符号主义的一个新阶段——专家系统(Expert System)。


  • 专家系统


专家系统,就是一个面向专业领域的超级“知识库+推理库”。


它找来很多人,对大量的专家知识和经验进行整理,分析并编写出海量的规则,导入系统。然后,系统根据这些基于知识整理出来的规则,进行逻辑推理,来模拟和延伸人类专家的决策能力,解决复杂的问题。



大家能看出来,专家系统走的仍然是符号主义的“规则”路线。所以,专家系统,也叫做规则基础系统。


1968年,美国科学家爱德华·费根鲍姆(Edward Feigenbaum)提出了第一个专家系统——DENDRAL,并对知识库给出了初步的定义。这标志着专家系统的诞生。


爱德华·费根鲍姆(坐着的那位)


DENDRAL面向的是化学行业。它可以帮助化学家判断物质的分子结构。系统推出之后,因为能够减少人力成本并且提升工作效率,受到了化学行业的欢迎和认可。


和DENDRAL差不多时间出现的专家系统,还有威廉·马丁(William A. Martin)开发的Macsyma,以及安东尼·赫恩(Anthony C. Hearn)开发的“Reduce”。


这两套都是数学领域的专家系统(用于求解数学问题),都采用了约翰·麦卡锡的LISP语言进行开发。


1972年,美国医生兼科学家爱德华·H·肖特利夫(Edward H. Shortliffe)创建了可以帮助进行医学诊断的专家系统——MYCIN。


爱德华·H·肖特利夫


MYCIN也是基于LISP语言编写,拥有500多条规则,能够识别51种病菌,正确地处理23种抗菌素。


它能够协助医生诊断、治疗细菌感染性血液病,为患者提供最佳处方。当时,它成功地处理了数百个病例,并通过了严格的测试,显示出了较高的医疗水平。


1977年,爱德华·费根鲍姆在第五届国际人工智能联合会议上,提出了“知识工程(Knowledge Engineering)”的概念,进一步推动了专家系统的普及。


进入1980年代,随着技术的演进,计算机的计算和存储能力增加,专家系统开始在各个行业爆发。


1980年,卡耐基梅隆大学研发的专家系统XCON(eXpertCONfigurer)正式商用,为当时的计算机巨头公司DEC每年省下数千万美金。


1983年,通用电气公司搞出了柴油电力机车维修专家系统(DELTA)。这个系统封装了众多GE资深现场服务工程师的知识和经验,能够指导员工进行故障检修和维护。


当时,美国运通公司也搞了一个信用卡认证辅助决策专家系统,据说每年可节省2700万美金。


总而言之,那时候的专家系统,是大公司趋之若鹜的神器。它能够带来实实在在的经济效益,所以,行业用户愿意为之投资。这是第二次AI浪潮的根本原因。


我们也可以这么说,第一次AI浪潮,是政府投资带动的。第二次AI浪潮,是企业投资带动。AI,开始进入产业化的阶段。


企业投资的成效,反过来又让各国政府对AI恢复了一些信心。


1981年,经济高速增长的日本,率先开始对AI进行投入。


那一年,日本经济产业省拨款8.5亿美元,支持第五代计算机项目。这个项目的最终目的,是造出一台人工智能计算机,能够与人对话、翻译语言、解释图像、完成推理。


美国和英国政府,也很快采取了行动。


1983年,美国国防部高级研究计划局(DARPA)通过“战略计算促进会(Strategic Computing Initiative)”,重启对人工智能研究的资助。


同年,英国投资3.5亿英镑,启动了Alvey(阿尔维)计划,全面推进软件工程、人机接口、智能系统和超大规模集成电路等领域的研发。


关于专家系统,还有一个雄心勃勃的项目值得一提。那就是1984年启动的Cyc项目。


Cyc项目由美国微电子与计算机技术公司发起,是一个“超级百科全书”项目。它试图将人类拥有的所有一般性知识都输入计算机,建立一个巨型数据库。


这个项目,据说到现在还在进行之中。



第二次低谷阶段(1987年-1993年)


好景不长,到了1980年代的后半段,人工智能又开始走下坡路了。


原因是多方面的。


首先,专家系统(符号主义)基于规则和已有知识的“检索+推理”,面对复杂的现实世界,显然还是有能力瓶颈。


它的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等……所有这些问题,都给它的进一步发展造成了困扰。


其次,80年代PC(个人电脑)技术革命的爆发,也给专家系统造成了冲击。


当时专家系统基本上都是用LISP语言编写的。系统采用的硬件,是Symbolics等厂商生产的人工智能专用计算机(也叫LISP机)。


LISP系列主机


1987年,苹果和IBM公司生产的台式机,在性能上已经超过了Symbolics的AI计算机,导致AI硬件市场需求土崩瓦解。


专家系统的维护和更新也存在很多问题。不仅操作复杂,价格也非常高昂。

结合以上种种原因,市场和用户逐渐对专家系统失去了兴趣。


到了80年代晚期,战略计算促进会大幅削减对AI的资助。DARPA的新任领导也认为AI并非“下一个浪潮”,削减了对其的投资。


AI,进入了第二次低谷阶段。



第三次高潮阶段(1994年-现在)


在进入1990年代之前,小枣君还是要再讲讲1980年代。


1980年代,专家系统掀起了第二次AI浪潮,也推动了AI技术的发展。但从上帝视角来看,真正对后来的AI发展产生深远影响的,其实不是专家系统,而是另外一个被遗忘了二十多年的赛道。


没错,这个赛道,就是当年被马文·明斯基一句话给干废的“神经网络”赛道。


  • 机器学习和神经网络


前文我们提到,神经网络是联结主义的一个代表性研究方向。但是,因为马文·明斯基的否定,这个方向在1969年被打入冷宫。


1980年,越来越多的科学家意识到专家系统存在不足。符号主义这条路,很可能走不通。人们认为,人工智能想要实现真正的智能,就必须拥有自己的感知系统,能够自主学习。


于是,倡导让机器“自动地从数据中学习,并通过训练得到更加精准的预测和决策能力”的研究思想,开始逐渐活跃起来。这就是前面提到过的机器学习。


机器学习包含多种方法和理论学派。源于联结主义学派的神经网络,就在这一时期开始“复活”。


1982年,约翰·霍普菲尔德(John Hopfield)在自己的论文中重点介绍了Hopfield网络模型(模型原型早期由其他科学家提出)。这是一种具有记忆和优化功能的循环(递归)神经网络。


1986年,戴维·鲁梅尔哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton,记住这个名字!)和罗纳德·威廉姆斯(Ronald Williams)等人共同发表了一篇名为《Learning representations by back-propagation errors(通过反向传播算法的学习表征)》的论文。


在论文中,他们提出了一种适用于多层感知器(MLP)的算法,叫做反向传播算法(Backpropagation,简称BP算法)。


该算法通过在输入层和输出层之间设定一个中间层(隐藏层),以反向传播的方式实现机器的自我学习。



算法咱们以后再研究。大家只需要记住,BP算法不仅为多层神经网络的发展奠定了基础,也打破了马文·明斯基当年提出的“神经网络具有局限性”魔咒,意义非常重大。


1980年代是人工智能研究方向发生重大转折的时期。机器学习和神经网络(联结主义)加速崛起,逐渐取代专家系统(符号主义),成为人工智能的主要研究方向。


我们也可以理解为,人工智能原本由知识驱动的方式,逐渐变成了由数据驱动。


这张图,先剧透一下


机器学习的代表性算法包括决策树、支持向量机、随机森林等。


1995年,克里娜·柯尔特斯(Corinna Cortes)和弗拉基米尔·万普尼克(Vladimir Vapnik)开发了支持向量机(Support Vector Machine,SVM)。支持向量机是一种映射和识别类似数据的系统,可以视为在感知机基础上的改进。


神经网络方面,非常重要的CNN(Convolutional Neural Network,卷积神经网络)和RNN(Recursive Neural Networks,递归神经网络),也在那一时期崛起了。


1988年,贝尔实验室的Yann LeCun(他是法国人,网上翻译的中文名有很多:杨立昆、杨乐春、燕乐存、扬·勒丘恩)等人,提出了卷积神经网络。大家应该比较熟悉,这是一种专门用于处理图像数据的神经网络模型。


Yann LeCun


1990年,美国认知科学家、心理语言学家杰弗里·艾尔曼(Jeffrey Elman)提出了首个递归神经网络——艾尔曼网络模型。递归神经网络能够在训练时维持数据本身的先后顺序性质,非常适合于自然语言处理领域的应用。


1997年,德国计算机科学家瑟普·霍克赖特(Sepp Hochreiter)及其导师于尔根·施密德胡伯(Jürgen Schmidhuber)开发了用于递归神经网络的LSTM(长短期记忆网络)。


1998年,Yann LeCun等人提出了LeNet,一个用于手写数字识别的卷积神经网络,初步展示了神经网络在图像识别领域的潜力。


总而言之,20世纪90年代,神经网络在开始商用于文字图像识别、语音识别、数据挖掘以及金融预测。在模式识别、信号处理、控制工程等领域,也有尝试应用,尽管当时受到计算资源限制,应用范围和规模有限。


想要推动人工智能技术的进一步爆发,既需要算法模型的持续演进,也需要算力的深入增强。此外,还有一个短板,也需要补充,那就是数据。


大家应该看出来了,AI的三要素,就是算法、算力和数据。


  • 深蓝


1990年代最重要的AI事件,当然是1997年IBM超级电脑“深蓝(DEEP BLUE)”与国际象棋大师卡斯帕洛夫(KASPAROV)的世纪之战。



此前的1996年2月,深蓝已经向卡斯帕洛夫发起过一次挑战,结果以2-4败北。


1997年5月3日至11日,“深蓝”再次挑战卡斯帕罗夫。在经过六盘大战后,最终“深蓝”以2胜1负3平的成绩,险胜卡斯帕罗夫,震惊了世界。


这是AI发展史上,人工智能首次战胜人类。


作为80后的小枣君,对这件事情也印象深刻。当时“深蓝”所引起的热潮,丝毫不亚于后来的ChatGPT。几乎所有的人都在想——人工智能时代是否真的到来了?人工智能,到底会不会取代人类?


  • 深度学习


进入21世纪,得益于计算机算力的进一步飞跃,以及云计算、大数据的爆发,人工智能开始进入一个更加波澜壮阔的发展阶段。


2006年,多伦多大学的杰弗里·辛顿(就是1986年发表论文的那个大神)在science期刊上,发表了重要的论文《Reducing the dimensionality of data with neural networks(用神经网络降低数据维数)》,提出深度信念网络(Deep Belief Networks,DBNs)。


杰弗里·辛顿


深度学习(Deeping Learning),正式诞生了。


2006年被后人称为深度学习元年,杰弗里·辛顿也因此被称为“深度学习之父”。


深度学习是机器学习的一个重要分支。更准确来说,机器学习底下有一条“神经网络”路线,而深度学习,是加强版的“神经网络”学习。


经典机器学习算法使用的神经网络,具有输入层、一个或两个“隐藏”层和一个输出层。数据需要由人类专家进行结构化或标记(监督学习),以便算法能够从数据中提取特征。


深度学习算法使用“隐藏”层更多(数百个)的深度神经网络。它的能力更强,可以自动从海量的数据集中提取特征,不需要人工干预(无监督学习)。



2006年,在斯坦福任教的华裔科学家李飞飞,意识到了业界在研究AI算法的过程中,没有一个强大的图片数据样本库提供支撑。于是,2007年,她发起创建了ImageNet项目,号召民众上传图像并标注图像内容。


2009年,大型图像数据集——ImageNet,正式发布。这个数据库包括了1400万张图片数据,超过2万个类别,为全球AI研究(神经网络训练)提供了强大支持。


李飞飞和ImageNet


从2010年开始,ImageNet每年举行大规模视觉识别挑战赛,邀请全球开发者和研究机构参加,进行人工智能图像识别算法评比。


2012年,杰弗里·辛顿和他的学生伊利亚·苏茨克沃(Ilya Sutskever)和亚历克斯·克里切夫斯基(Alex Krizhevsky)参加了这个比赛。


师徒三人


他们设计的深度神经网络模型AlexNet在这次竞赛中大获全胜,以压倒性优势获得第一名(将Top-5错误率降到了15.3%,比第二名低10.8%),引起了业界轰动,甚至一度被怀疑是作弊。


值得一提的是,他们三人用于训练模型的,只是2张英伟达GTX 580显卡。GPU在深度神经网络训练上表现出的惊人能力,不仅让他们自己吓了一跳,也让黄仁勋和英伟达公司吓了一跳。


作为对比,2012年的早些时候,谷歌“Google Brain”项目的研究人员吴恩达(华裔美国人,1976年生于伦敦)、杰夫·迪恩(Jeff Dean)等人,也捣鼓了一个神经网络(10亿参数),用来训练对猫的识别。


他们的训练数据是来自youtube的1000万个猫脸图片,用了1.6万个CPU,整整训练了3天。


吴恩达


“深度神经网络+GPU”的优势,显露无疑。很多人和很多公司的命运,从此改变了。


2013年,辛顿师徒三人共同成立了一家名为DNNresearch的公司。后来,这个只有三个人且没有任何产品和计划的公司,被谷歌以几千万美元的价格竞购(百度也跑去买,和谷歌争到最后,没成功)。


  • AlphaGo


2013年-2018年,谷歌是人工智能领域最活跃的公司。


2014年,谷歌公司收购了专注于深度学习和强化学习技术的人工智能公司——DeepMind公司。


2016年3月,DeepMind开发的人工智能围棋程序AlphaGo(阿尔法狗),对战世界围棋冠军、职业九段选手李世石,并以4:1的总比分获胜,震惊了全世界。



AlphaGo具有很强的自我学习能力,能够搜集大量围棋对弈数据和名人棋谱,学习并模仿人类下棋。


一年后,AlphaGo的第四代版本AlphaGoZero问世。在无任何数据输入的情况下,仅用了3天时间自学围棋,就以100:0的巨大优势,横扫了第二代版本AlphaGo。学习40天后,AlphaGoZero又战胜了第三代版本AlphaGo。


当时,全世界都在热议AlphaGoZero的强悍自学能力,甚至一度引起了人类的恐慌情绪。


谷歌在AI圈出尽风头,但他们估计也没有想到,一家在2015年悄然成立的公司(确切说,当时是非营利性组织),会很快取代他们的主角地位。这家公司(组织),就是如今大红大紫的OpenAI。


OpenAI的创始人,除了埃隆·马斯克(Elon Musk)之外,还有萨姆·奥尔特曼(Sam Altman)、彼得·泰尔(Peter Thiel)、里德·霍夫曼(Reid Hoffman)。辛顿的那个徒弟,伊利亚·苏茨克沃,也跑去当了研发主管。


  • AIGC


深度学习崛起之后,大家应该注意到,都是用于一些判别类的场景,判断猫、狗之类的。那么,深度学习,是否可以创造(生成)一些什么呢?


2014 年,蒙特利尔大学博士生伊恩· 古德费洛(Ian Goodfellow),从博弈论中的“二人零和博弈”得到启发,提出了生成对抗网络(GANs,Generative Adversarial Networks)。


生成对抗网络用两个神经网络即生成器(Generator)和判别器(Discriminator)进行对抗。在两个神经网络的对抗和自我迭代中,GAN会逐渐演化出强大的能力。



生成对抗网络的出现,对无监督学习、图片生成等领域的研究,起到极大的促进作用,后来也拓展到计算机视觉的各个领域。


2017年12月,Google机器翻译团队在行业顶级会议NIPS上,丢下了一颗重磅炸弹。他们发表了一篇里程碑式的论文,名字叫做《Attention is all you need(你所需要的,就是注意力)》。


论文提出只使用“自我注意力(Self Attention)”机制来训练自然语言模型,并给这种架构起了个霸气的名字——Transformer(转换器、变压器,和“变形金刚”是一个词)。


所谓"自我注意力"机制,就是只关心输入信息之间的关系,而不再关注输入和对应输出的关系,无需再进行昂贵的人工标注。这是一个革命性的变化。


Transformer的出现,彻底改变了深度学习的发展方向。它不仅对序列到序列任务、机器翻译和其它自然语言处理任务产生了深远的影响,也为后来AIGC的崛起打下了坚实的基础。


终于,AIGC的时代,要到来了。


2018年6月,年轻的OpenAI,发布了第一版的GPT系列模型——GPT-1。同时,他们还发表了论文《Improving Language Understanding by Generative Pre-training(通过生成式预训练改进语言理解)》。


GPT,就是Generative Pre.trained Transfommer的缩写,生成式预训练变换器


Generative(生成式),表示该模型能够生成连续的、有逻辑的文本内容,比如完成对话、创作故事、编写代码或者写诗写歌等。


Pre.trained(预训练),表示该模型会先在一个大规模未标注文本语料库上进行训练,学习语言的统计规律和潜在结构。


Transfommer,刚才说过了,就是那个很厉害的转换器模型。



谷歌紧随其后。2018年10月,他们发布了有3亿参数的BERT(Bidirectional Encoder Representation from Transformers)模型,意思是“来自Transformers的双向编码表示”模型。


GPT-1和BERT都使用了深度学习和注意力机制,具备较强的自然语言理解能力。两者的区别是,BERT使用文本的上下文来训练模型。而专注于“文本生成”的GPT-1,使用的是上文。基于“双向编码”的能力,BERT的性能在当时明显优异于GPT-1。


谷歌的领先是暂时的。2019年和2020年,OpenAI接连发布了GPT-2和GPT-3。2022年11月,OpenAI发布了基于GPT模型的人工智能对话应用服务——ChatGPT(也可以理解为GPT-3.5),彻底引爆了全世界。



ChatGPT结合了人类生成的对话数据进行训练,展现出丰富的世界知识、复杂问题求解能力、多轮对话上下文追踪与建模能力,以及与人类价值观对齐的能力。


它在人机对话方面的出色表现,引发了社会的高度关注,在全球范围内掀起了一股AI巨浪。


后面的事情,大家都比较清楚了。


继ChatGPT后,OpenAI又发布了GPT-4、GPT-4V、GPT-4 Turbo、GPT-4o,形成了如今难以撼动的领导者地位。谷歌虽然也发布号称最强AI大模型的Gemini,但仍然难以在风头上盖过OpenAI。



除了文本生成,生成式AI也积极向多模态发展,能够处理图像、音频、视频等多种媒体形式。


例如DALL-E、Stable Diffusion、Midjourney等图像生成模型,Suno、Jukebox音乐生成模型,以及SoRa视频生成模型。


全球面向各个垂直领域的“大模型之战”,仍在硝烟弥漫地进行之中。。。



结语


写到这里,这篇洋洋洒洒一万多字的文章,终于要结束了。


我总结一下:


人工智能起步于1950年代,早期主要是符号主义占主流,并引发了第一次(政府投资)和第二次AI浪潮(企业投资)。


到1980年代,符号主义逐渐走弱,机器学习和神经网络开始崛起,成为主流。


1994-现在,虽然叫做第三次AI浪潮,但也分两个阶段。1994-2006(其实是1980-2006),是机器学习、神经网络的早期积累阶段,打基础。


2006年,神经网络进入深度学习阶段,就彻底开始了AI的爆发。


从2018年开始,人工智能逐渐进入了Transformer和大模型时代,能力有了巨大的提升,也掀起了AI巨浪。



如今的人工智能,已经是全世界关注的焦点,也处于一个前所未有的白金发展阶段。


随着深度学习、神经网络、生成式AI等技术的不断突破,人工智能已经在工业、教育、医疗、金融、交通、娱乐等几乎所有领域实现了落地。人工智能在计算机视觉、自然语言处理、机器人等方面所具备的能力,已经被应用到大量的垂直场景,并产生了可观的经济效益。


在人工智能热潮的带动下,软件、半导体、通信等ICT产业,都获得了不错的商业机会。围绕人工智能的几家大公司,包括英伟达、微软、苹果、Alphabet(谷歌母公司)、亚马逊、Meta、特斯拉,目前在股票市场被誉为“七巨头”,市值屡破纪录。


当然了,这股热潮究竟会走向何方,我们还不得而知。也许,它会继续增长一段时间,甚至长期持续下去,将人类彻底带入智能时代。也许,我们会进入第三次AI低谷,泡沫破碎,一地鸡毛,又进入一个新的周期。


未来如何,就让时间来告诉我们答案吧。



参考文献:

1、《人工智能简史》,尼克;

2、《人工智能发展简史》孙凌云、孟辰烨、李泽健;

3、《人工智能 60 年技术简史》,李理;

4、《深度学习简史》,Keith D. Foote;

5、《AI是什么 将带我们去哪儿?》,李开复;

6、《人工智能的五个定义:哪个最不可取?》,李开复;

7、《一文读懂人工智能发展史:从诞生,到实现产业化》,李弯弯;

8、《你一定爱读的人工智能简史》,山本一成;

9、《AlphaGo背后:深度学习的胜利》,曹玲;

10、《三张图讲述一部AI进化史》,产品二姐(知乎);

11、《GPT的背后,从命运多舛到颠覆世界,人工神经网络的跌宕80年》,孙睿晨;

12、百度百科、维基百科等。