人工智能60年:揭秘AI的过去、现在与未来展望

发表时间: 2024-06-13 16:40

下篇:未来“无穷大”的AI

基于自身转型的需求和庞大的企业经济体量,IBM正在真正拉动全球第一次人工智能商业化浪潮。

尽管人工智能已经有了60年的历史,但是人工智能的规模化商业浪潮却一直迟迟没有到来。之前,尽管有微软、谷歌、Facebook等大公司不断投资人工智能技术,但大多把研究成果用于自身业务的优化与效率提升。因此,可以说2016年IBM在全球范围内倾全力推出的“认知商业”,才是真正意义上的人工智能商业化第一波浪潮。

早在1960年4月25日,在一份给IBM管理者的备忘录中,当时的首席执行官小沃森谈及IBM面临的问题是制造“会思考的机器”。从大型机到小型机、从PC到POWER服务器、从“深蓝”到“IBM Watson”,IBM对“会思考的机器”的思考从未停止过。尤其自20世纪90年代人工智能研究陷入低潮以来,IBM是少数坚持投入人工智能研究的企业。

作为世界上第一家百年IT企业,IBM坚持每年研发经费投入超过60亿美元。自从近年来遭遇转型困境后,人工智能研究成果的商业化自然成为了IBM的首选。

新一代“IBM Watson”

2016年3月1日,IBM大中华区董事长陈黎明在IBM论坛2016上,宣布IBM公司105年的历史上第3个代表商业战略的品牌“认知商业”落地中国。此前早在1997年,IBM就描绘了“电子商务”的愿景;2008年,IBM推出了“智慧的地球”。

IBM大中华区董事长陈黎明宣布IBM认知商业战略在中国正式落地

“认知商业”基于IBM推出的认知计算,其核心为新一代IBM Watson技术及Watson APIs。这个命名实际上来自IBM创始人 Thomas J. Watson 老沃森的姓氏,而IBM Watson则是继“深蓝”之后的下一个超级认知计算平台。提起“深蓝”,可谓无人不知。1997年5月1日,国际象棋大师卡斯帕罗夫最终以25:35的比分输给了IBM RS/6000SP“深蓝”计算机,举世震惊。

由于象棋是高度结构化游戏,实际上“深蓝”并不需要太高的学习能力。有关资料显示,1997年版的“深蓝”每秒钟可以计算2亿步,存储了100多年来优秀棋手对局的200多万棋局。在“深蓝”成功后,IBM研究院进而挑战人工智能的深度问答(Deep Q&A),这是人工智能的一个重要分支,具有极为广阔的应用空间。

IBM Watson最早现身在2011年2月美国老牌益智节目“危险边缘”(Jeopardy!),与节目史上最强的两位答题高手一较高下,并最终以优异的表现打败了人类选手。从2004年提出挑战“Jeopardy!”的构想,到2011年IBM Watson真正打败“Jeopardy!”,中间差不多经历了6年的时间。为什么会这么困难?

Watson并不是简单的机器学习系统,当IBM的研究员开始尝试构造Watson时,发现传统的机器学习算法行不通。传统的机器学习算法先归纳知识,把知识形成规则,再让机器根据规则进行响应。这不足以让Watson在“Jeopardy!”节目中胜出,由于数据量过于庞大,IBM研究员意识到必须让Watson能够自行学习知识而尽量减少人工干预。

经过学习和训练,Watson的Deep Q&A系统能够从原始信息中自动抽取知识,对知识进行分类并且能够分析和理解自然语言。如此,Watson就能够像人类一样学习,并从已经发生的事件进行推理和总结经验。由于这样的任务已经超出了前代超级计算机的能力,IBM的研究员从头设计了IBM Watson系统,包括软件和硬件体系。

2011年打败“Jeopardy!”的时候,IBM Watson是由10台IBM商用服务器Power750组成的计算系统。2014年初的时候,IBM Watson的体积已由1个卧室缩小到3个披萨盒子那么大,运算速度是之前的 24 倍,智能水平是之前的24倍。

IBM Watson的商业化进程

在小沃森的备忘录里,强调“计算机永远不会取代人的主动性,也不会取代人类的创造性思维。”计算机就是要把人类从无意义的、重复性的思维模式中解放出来。因此,在IBM Watson的商业化推广中,IBM提出了“认知计算”,强调的人与机器共存。在认知计算时代,并不是机器取代人类,而是人机协作共同创造更好的结果。

2014年1月12日,IBM宣布将投资逾10亿美元,创建一个新的IBM Watson 业务集团,基于云计算交付模式,实现认知计算技术的商业化,从这一点开始标志着IBM又一次拉开了世纪转型。

位于纽约的IBM Watson大楼

在创建IBM Watson业务集团的同时,IBM公布了几项基于Watson的新功能:IBM Watson Discovery Advisor、IBM Watson Analytics以及IBM Watson Explorer 等,分别用于大数据探索、基于自然语言的数据可视化分析和应用程序开发框架。目前Watson Analytics在全球已经拥有超过100万注册用户,2016年3月在大中华区刚推出就获得了近2万个注册用户。

IBM Watson业务集团总部位于纽约的“硅巷”(Silicon Alley),总部大楼内为创业者提供了相关的孵化器,也为IBM客户提供了客户解决方案中心用于体验认知技术,还有一个设计实验室来帮助IBM客户和合作伙伴持续提升认知应用及服务的用户体验。实际上,在宣布的10亿美元投资中,还包括了1亿美元的风险投资,用于构建IBM Watson生态圈。

为了扩展可用的Watson数据源,IBM Watson Content Marketplace结合了各种独特且多样化的第三方数据,其中的数据和信息可被IBM客户、合作伙伴、开发者和其它机构用于Watson支持的应用和服务中。迄今为止,该市场接入了Wikivoyage、疾病控制中心、Cancer.gov、美国临床肿瘤学会等多家医疗机构的合作内容,以及美联社、Barchart.com、晨星机构(Morningstar)、RxWiki和WAND等新闻报道档案、健康管理、金融服务、肿瘤学、医药、工程及其它领域的知识库。IBM还与Twitter、Facebook、苹果等公司建立战略联盟,以便能够存取相关的数据。

IBM专门推出了AlchemyData,通过聚合超过7.5万个来源的新闻和博客内容,利用自然语言处理(NLP)加以强化,让Watson应用能够采集市场信号、实现业务流程自动化和趋势分析。IBM后来收购的AlchemyAPI,就是一家提供人工智能文本和图像分析服务的前沿公司。

2015年3月,IBM宣布将向物联网投资超过30亿美元。利用这一投资,在2015年10月IBM公司透露了收购The Weather Channel的B2B、移动和云业务的计划,并于2016年1月完成收购,IBM将向包括中国、印度、巴西、墨西哥和日本在内的5大新兴市场扩展weather.com。气象数据在业务运营、市场营销、风险管理等商业领域,有着广泛的价值。

2015年4月IBM成立Watson Health,加强在医疗和健康行业的布局,先后收购了包括Explorys(一家可以查看5000万份美国患者病例的分析公司)、Phytel(处理各类健康数据及提供数据分析的云软件公司)、医疗影像公司Merge Healthcare 公司。其中,Merge的技术平台普遍应用在7500余家美国医院及全球众多著名临床研究机构和制药公司。

2016年刚开年,IBM就宣布进行了郭士纳以来一次大型的组织调整。这次调整涉及了IBM的三大部门——全球行业事业部门、整合认知解决方案部门以及云计算部门,笔者认为其中的商业逻辑将会是全球行业事业部门梳理行业用户需求、整合认知解决方案部门根据需求开发认知解决方案、云计算部门提供平台支持。

2016年3月1日,IBM向中国市场推出“认知商业”品牌,在中国市场展开了铺天盖地的宣传推广活动。3月15日,IBM宣布基于认知计算的IBM营销云落地中国,特别加入了对于微信的支持。

算法经济时代的到来

IBM正在转型为一家认知计算公司,其背后的大逻辑是全球正在进入一个算法经济时代。自去年以来,Gartner就在多份报告中强调,算法连通了人、事物、业务及信息,将创造全新的商业价值。在未来,算法将成为企业的核心资产,代替企业把大数据转化为商业洞察、自动化业务流程以及差异化产品与服务。一句话,算法将统治世界。

IBM正在拉动全球第一次人工智能商业化浪潮

在一个算法经济时代,人工智能算法仅是众多算法中的一种。IBM董事长Ginni Rometty在去年10月的Gartner全球峰会上说,Watson并不仅仅是人工智能,人工智能算法是Watson背后32个引擎中的一个。实际上在过去的几年间,除了推动Watson认知计算的商业化之外,IBM一直在不余遗力的收购商业算法公司,纳入到IBM整体的算法体系。

IBM于2011年花费近4亿美元收购了一家叫做Algorithmics的公司,其业务就是用商业算法来计量金融交易的风险。Algorithmics参与了国际巴寒尔协议的咨询与建议,不断跟踪巴寒尔协议进展并把新的规范编入算法中,再把算法卖给各国的银行用于金融风险监控。据有关统计,在收购Algorithmics之前,IBM就已经花费了140亿美元用于收购25家分析公司。

当然,在整个IBM算法体系中,Watson认知计算是“皇冠上的明珠”。IBM Watson业务集团高级副总裁Michael Rhodin说:“在IBM 100年的历史上,Watson是我们最重要的创新之一。” IBM 董事长 Ginni Rometty在去年10月的Gartner全球峰会上说,推动全球迈向“认知商业”时代,“这是我们的登月工程。”

在已经推出的Watson API中,包括:文本转语音API,历经12年的研发,最新加入的情商功能让文本转语音的时候能适应语境与情绪;语调分析器API,可对文本中的语调进行分析,获得更好的观察;情绪分析API,通过复杂的自然语言处理,感知外部环境中用户情绪的变化;视觉识别API,可以定制化适应不同企业的图像识别需求等等。据统计,Watson API每月被调用高达13亿次,并且还在快速增长。

目前已经有36个国家、17个行业的企业在使用Watson的认知技术,全球超过7.7万名开发者在使用Watson Developer Cloud平台,超过350家生态系统中合作伙伴及企业内部创新团队正在构建基于认知技术的应用、产品和服务,其中100家企业已将产品推向市场。

可以说,基于自身转型的需求和庞大的企业经济体量,IBM正在真正拉动全球第一次人工智能商业化浪潮。而在这次大浪潮之下,首先受益的将是商业智能算法公司,包括IBM、SAS、QLIK、Tableau等商业智能软件公司将迎来黄金时代。

承上启下的AlphaGo

AlphaGo战胜人类围棋高手李世石的事件,正好发生在60年这个时间节点上,可以说是全球人工智能界承上启下的里程碑式事件。简单说,AlphaGo的算法是前60年人工智能研究都很少触及的领域:增强学习,即无监督的深度学习,而前60年的主流算法为有监督的深度学习。

而在60年这个节点上,经过了1980年和2000年两次寒冬,全球人工智能界又迎来了第三次浪潮。这一次,随着前60年有监督深度学习算法的理论研究和工程化的成熟,以及硬件计算能力的大幅提升和成本的飞速降低,在云计算、大数据和移动互联网的融合推动下,人工智能在很多方面都有了突破性进展。

更为重要的是,除了微软、IBM等大公司外,谷歌、Facebook、百度等互联网巨头纷纷向人工智能领域投巨资进行研发,各国政府也开始意识到人工智能是未来社会的战略制高点,甚至人工智能有可能成为未来社会的一部分。

当AlphaGo战胜李世石的消息传来,深蓝之父Murray Campbell就此评价说:“这是人工智能一个时代的结束。”

两次人机大战时隔20年,这其中最重要的差别在于象棋与围棋的复杂度差异巨大。人工智能之所以能够先战胜国际象棋冠军,在于国际象棋可以穷尽接近所有可能的棋局,而围棋就不一样了。围棋棋局究竟有多少种变化?普林斯顿的研究人员给出了一个最小的数字:19x19格围棋的合法棋局数为10的171次方,这个数字接近无穷大。

AlphaGo对战李世石

根据美国Wired网站长期跟踪谷歌的记者Cade Metz的报道,AlphaGo前期通过一个已知职业棋手的3000万步数据库进行训练,在获得相当的熟练度后,AlphaGo开始用增强学习算法与另一个AlphaGo程序相互博弈,探索未知的但与取胜有关的棋局,用以培养自己的“智能”。围棋对于人工智能来说,相当于是求解一个开放式的问题。

机器学习算法大致可以分为3种:监督学习(如回归、分类)、非监督学习(如聚类、降维)和增强学习。人工智能前60年,主要通过有监督的深度学习算法,解决语音识别、图像识别、自然语言理解等总样本量有上限的相对“有穷大”问题。

增强学习算法主要从任意初始状态开始,机器与外部环境持续交互,通过不断试错和累积回报来“学习”最佳策略,在这个过程中外界不给予直接指导(监督),只给予间接的或是远距离的回报(Reward)。举例来说,训练室内机器人完成某个任务,在这个过程中人类并不干涉,只有当机器人接近完成任务时才给予正反馈。

换句话说,增强学习算法更接近生物学习的行为特征,具有探索未知世界的能力。AlphaGo对增强学习算法的探索,打开了“无穷大”的大门。

语音识别走下神坛

微软是人工智能领域的另一巨头。微软人工智能首席科学家、美国IEEE电气和电子工程师协会院士邓力长期投身于语音识别研究,在自动语音与说话者识别、口语识别与理解、语音-语音翻译、机器翻译、图像和多模态信息处理等领域做出了重大贡献,凭借在深度学习与自动语音识别方向的杰出贡献,获得了2015年度IEEE信号处理技术成就奖。

微软人工智能首席科学家邓力

邓力表示,有监督的深度神经网络已历经了研究与确认,被认为是能够解决语音和图像识别的最有效的工具。基本上到2012年的时候,有监督深度神经网络用于语音识别就已经成功取得突破。当时,微软研究院全球院长Rick Rashid在天津成功演示了一个全自动同声翻译系统,实时把英文演讲翻译成中文并以中文语音输出。

Rick Rashid演示中的语音识别部分采用了有监督学习的深度神经网络工具,最先由邓力和他的微软同事于2009~2010间与多伦多大学的Geoffrey Hinton 教授合作开发。如今,微软的语音识别技术已经工程化并广泛用于微软的多个产品中。

作为中国的国家队,科大讯飞在智能语音技术领域有着长期的研究积累,并在语音合成、语音识别、口语评测、自然语言处理等多项技术上有着国际领先的成果。2008年6月,科大讯飞参加NIST(美国标准技术研究院)举办的说话人识别SRE大赛,就在3项关键指标中,获得两项第一、一项第三、综合评比第一的好成绩。

科大讯飞是中国唯一以语音技术为产业化方向的“国家863计划成果产业化基地”、“国家规划布局内重点软件企业”、“国家高技术产业化示范工程”,并被原信息产业部确定为中文语音交互技术标准工作组组长单位,牵头制定中文语音技术标准。

基于自主知识产权的智能语音技术,科大讯飞已推出从大型电信级应用到小型嵌入式应用,从电信、金融等行业到企业和消费者用户,从手机到车载、从家电到玩具等不同应用场景的多种产品,还发布了“讯飞语音云”平台。目前,科大讯飞已占有中文语音技术市场70%以上市场份额,开发伙伴超过5000家,以讯飞为核心的中文语音产业链已初具规模。

计算机视觉逼近拐点

视觉识别是人工智能的一个重要研究领域,没有视觉识别能力的机器人无法真正与外界交互。2015年,在微软等大公司的推动下,计算机视觉已经逼近全面突破的拐点。

ImageNet是全球顶级的计算机视觉挑战赛,挑战赛项目之一是对1000 类、120万张互联网图片进行分类,每张图片人工标注5个相关类别,计算机识别的结果只要有一个和人工标注类别相同就算对。对于该图片集,人眼辨识错误率大概为5.1%,目前只有谷歌和微软等个别参赛团队的算法能够达到低于5%的结果。

2015年12月10日,微软亚洲研究院视觉计算组在ImageNet计算机识别挑战赛中再次打破纪录,获得图像分类、图像定位以及图像检测全部三个主要项目的冠军,将系统错误率降低至3.57%。在计算机视觉识别领域,卷积神经网络(即为有监督的深度学习)是主要的算法。微软亚洲研究院视觉计算组首席研究员孙剑介绍说,他所带领的研究团队使用了高达152层的深层卷积神经网络算法,比以往任何成功的算法层数多达5倍以上。

而在另一方面,微软亚洲研究院硬件计算组与清华大学电子工程系一直在硬件加速领域合作了,从2013年开始双方一起研究怎样把深层卷积神经网络与智能硬件结合起来,其成果就是基于FPGA(可编程芯片)技术的A-Eye视觉芯片。微软的研究表明,高端GPU的图像处理能力是FPGA的2到3倍,但FPGA的功耗约是高端GPU的1/10,多个FPGA结合能以低功耗达到GPU的处理能力。

据微软亚洲研究院硬件计算组主管研究员徐宁仪介绍,A-Eye视觉芯片包括了一个基于软件的压缩算法和基于FPGA芯片的硬件实现,其本质上是通过软件压缩和定制的硬件加速,让计算机视觉识别算法适用于普通的智能终端。基于A-Eye技术的高性能智能视觉芯片,可以广泛用于智能安防、婴儿和老人看护、无人汽车和无人机等各种需要计算机视觉的领域。

目前卷积神经网络的图像识别能力有赖于输入的原始数据集,例如用花卉图像集训练出来的算法就只能识别花卉。基于Bing搜索引擎的大数据,接下来微软正在探索通用型视觉识别算法和工程化实现。一旦工程化实现了通用型视觉识别技术,智能机器张眼看世界的那一天就不远了。

开始探索情感算法

整个人工智能研究的起源,在于一个基本的假设,即能够用机械的方式模仿人类的思维。人工智能前60年,就在这个方向上不断地探索。但是,能否用机械的方式模仿人类的感情呢?

情感的表达远非“0”或“1”那么简单,就像人类的爱情绝非对与错那样绝对。如何让机器理解人类的情感,又如何把情感与知识进一步结合,发展出全新的计算架构?情感计算前进之路更加艰难,直到微软“小冰”的出现。

微软小冰有可能成为有史以来首个情感算法机器人

最开始作为一个聊天机器人,微软小冰由微软亚洲互联网工程院开发,2014年5月29日,一代小冰开始了微信公测,在3天内赢得了超过150万个微信群、逾千万用户的喜欢。2015年8月20日,第三代微软小冰正式发布。2015年11月小冰发布了计算视觉功能,从此,小冰还能根据图片和视频与用户聊天。

然而,微软小冰的意义绝不仅仅是聊天机器人。微软全球执行副总裁沈向洋说,希望小冰成为一个慢慢融入人类社会的机器人、每一个用户的个人助手,而且是一个真正通过情感计算,理解用户、能够交流、能够沟通的人工智能机器人。在更深层上,微软小冰正在成为整个微软的人工智能基础设施,小冰的研究成果正扩散到微软产品与服务的方方面面。

初步统计,仅在微软亚洲研究院就有将近15个研究团队与负责小冰的算法研究,而包括以色列、纽约、休斯顿总部的微软研究院也正为小冰提供技术支持,涉及包括大数据、自然语言互动、计算机视觉、SR(语音识别)、TTS(文字到语音转换)、IoT等十几个领域。

想象一下,未来的家庭里将出现智能手表、智能音箱、智能电视机、智能冰箱、智能燃气表、智能玩具等多种智能设备,人们无法再通过一个个APP与这些智能设备沟通,就必须出现一个超级APP来管控所有的智能设备,微软小冰就有望成为这样的超级人机交互界面。

从底层芯片突破人工智能

2016年3月24日,在ARM公司与重庆市的战略合作签约仪式上,重庆市长黄奇帆在致辞中表示“一切人工智能的源头,集中在芯片上”。

黄奇帆市长可能没有意识到,这个论断也是未来60年人工智能发展的重要主题之一。在人工智能前60年的发展中,冯·诺依曼架构的瓶颈已经成为共识,在接下来的60年里,如何打破冯·诺依曼架构的瓶颈,已经成为各大公司和各国政府战略级的研究项目。

IBM TrueNorth神经元芯片

2014年8月,IBM研究院在《科学》杂志上介绍了一款名为“TrueNorth”神经元芯片,它从底层模仿了人脑结构而且用普通半导体材料就能制造出来。TrueNorth表面上看起来和普通处理器没有太大区别,它的核心区域内挤满了4096个处理核心,用来模拟超过百万个人脑神经元和2.56亿个神经突触。

2008年初,IBM TrueNorth研究项目获得了美国五角大楼高级计划研究局(DARPA)的5300万美元资助,DARPA认为这项研究有助于突破冯·诺伊曼计算机体系。TrueNorth由三星代工生产,具备量产的基础。基于TrueNorth芯片,IBM已经研发出了神经元计算机原型机,能够以低功耗实现更高准确率的图像识别、视频处理等人工智能关键性功能。

2015年4月,IBM研究院Mark Ritter在他的一篇博客中,介绍了IBM在量子计算机方面的研究突破。IBM的T.J.沃森研究实验室的一组科学家和工程师,正处于开发首台真正量子计算机的前沿。2015年4月,这个团队在科学杂志《Nature Communications》(《自然通讯》)上发布了一篇重要的论文,介绍了在实现可行性量子计算机中的两个关键性进展。

1981年在MIT召开的首届量子计算会议上,诺贝尔奖获得者Feynman挑战科学家们研究量子计算机。与现代计算科学的方式方法截然不同,在量子计算前提下,整个计算基础设施必须被重新想象与重构。除了IBM外,谷歌与微软也集合了科学家与高校的力量投入量子计算的研究。Mark Ritter认为,IBM有望首先实现量子计算机,而当前正在进入量子计算研究的黄金时代。

除了远期的神经元芯片和量子计算机外,NVIDIA、Intel、ARM等公司通过改进现有的芯片设计,把人工智能推进到底层芯片中。NVIDIA的GPU被用于数据中心的大规模分布式机器学习环境,区别于传统CPU的Intel Xeon Phi更强调与CPU协同工作的GPU技术,而在移动互联网时代遥遥领先的ARM则在智能汽车、可穿戴设备、智能家电、物联网、工业装置等领域围绕未来人工智能场景来思考一代又一代的芯片设计。

ARM全球CEO Simon Segars在接受采访时表示,必须以更具成本效益的方式实现人工智能应用,只有当AI的成本和价格是普通人都能够承担时,AI才是真正达到了人们期望的目标。2016年3月,ARM宣布与台积电合作展开7nm芯片的研究,能以更高性价比广泛应用于智能终端和数据中心,预计在2017~2019年量产。目前,其它芯片公司还停留在10nm芯片的竞争。此外,ARM还加入了由Facebook发起的开源硬件项目OCP,该项目邀请开源硬件社区共同设计下一代数据中心的硬件设备,ARM就在与Paypal联合开发低功耗的定制化芯片。

创业者把AI扩散到社会的每一个角落

随着AlphaGo在全社会引起了巨大的反响,新一轮人工智能创业潮正在酝酿中。2016年3月26日,科大汛飞与专注天使轮投资的阿尔法公社宣布了AI领域联合天使投资计划,未来将在AI领域展开批量投资。科大讯飞高级副总裁江涛表示,在未来社会里AI将成为水和电一样的基础性资源,创业者们将把AI扩散到社会的方方面面。

阿尔法公社与科大讯飞联合宣布批量支持AI创业

为什么说AI将成为基础性社会资源?原因很简单,今天的互联网已经成为了基础性的社会资源。而在万物互联网时代,物联网的规模远远大于今天的互联网。除了接入现有的互联网设备外,未来的物联网还将接入大量机器对机器(M2M)网络。在一个更为复杂和庞大的物联网前提下,人工智能就必须成为整个物联网的关键组成部分,进而成为基础性资源。

如果说过去的人工智能创业必须要在基础科研层面有所突破,如今这个壁垒已经被打破。谷歌、微软、Facebook等大公司以及卡耐基·梅隆大学、NYU等高校纷纷开源核心的机器学习算法,谷歌的TensorFlow、微软的DMTK、Facebook的Torch、卡耐基·梅隆大学的Petuum、加州伯克利分校的Caffe等,都提供了成熟的人工智能和深度学习算法模块。而IBM Watson认知计算云服务,本身就是以低价格向全社会大规模输出人工智能的能力。

值得注意的是,大公司开源出来的机器学习算法并不是简单的宣传“噱头”,而是货真价实的“干货”。微软开源版DMTK包含了目前世界上最大规模的主题模型和分布式词向量模型,DMTK还是分布式机器学习工具,让创业者很简单就在多机环境甚至是集群系统中部署大规模机器学习算法,大幅降低了机器学习创业的门槛。为什么这么多大公司都纷纷开源自己的核心机器学习算法呢?原因很简单:争夺下一个生态。

当然,也有人担心大公司将垄断未来的人工智能社会。2015年12月12日,特斯拉CEO Elon Musk在Twitter上宣布正式启动非盈利人工智能项目OpenAI。OpenAI是一个非营利性的人工智能研究公司,目标是“推动数字智能的发展,同时不被财务回报所限制,从而造福整个人类”。OpenAI筹措了10亿美元作为经费,从谷歌等公司挖来了人工智能专家,专门研究人工智能技术并答应无偿公开。显然,OpenAI是人工智能创业的又一剂强心针。

另一方面,人工智能创业迎来黄金期,还有另一个时代背景。微软亚洲研究院人工智能研究组首席研究员、卡耐基·梅隆大学博士生导师刘铁岩告诉记者,近年来全球机器学习领域的三大趋势包括更大规模的机器学习、更深度的机器学习以及更强交互性的机器学习,这些都是基于大数据与云计算的兴起。正是因为廉价的云计算和大数据技术,人工智能才有可能扩散到社会的每一个角落。

来源:钛媒体