人工智能是机器执行我们通常与人类思维相关的一些认知功能的能力。
人类与机器:生产力天堂的绝配。如果没有我们的机械化助力,我们的物种就不会走得很远。从彻底改变农业的轮子到将日益复杂的建筑项目固定在一起的螺丝,再到今天的机器人装配线,机器使我们所知道的生活成为可能。然而,尽管它们似乎具有无穷无尽的效用,但人类长期以来一直害怕机器——更具体地说,机器有朝一日可能会获得人类的智慧并自行出击。
但我们倾向于以迷恋和恐惧来看待有知觉的机器的可能性。这种好奇心有助于将科幻小说变成真正的科学。二十世纪的理论家,如计算机科学家和数学家艾伦·图灵(Alan Turing),设想了一个机器可以比人类更快地执行功能的未来。图灵和其他人的工作很快使这成为现实。个人计算器在 1970 年代广泛使用,到 2016 年,美国人口普查显示 89% 的美国家庭拥有电脑。机器——智能机器——现在只是我们生活和文化中普通的一部分。
这些智能机器也变得越来越快,越来越复杂。一些计算机现在已经越过了百万兆次级的门槛,这意味着它们可以在一秒钟内执行与个人在31,688,765,000年内执行的计算数量一样多。除了计算机之外,计算机和其他设备现在正在获得曾经是人类和其他一些物种独有的技能和感知。
人工智能是机器执行我们与人类思维相关的认知功能的能力,例如感知、推理、学习、与环境互动、解决问题,甚至发挥创造力。即使你没有意识到,你也可能已经与人工智能进行了互动——Siri 和 Alexa 等语音助手是建立在人工智能技术之上的,一些弹出来帮助你浏览网站的客户服务聊天机器人也是如此。
应用人工智能——简单地说,就是应用于现实世界问题的人工智能——对商业世界有着严重的影响。通过使用人工智能,公司有可能使业务更加高效和有利可图。但归根结底,人工智能的价值并不在于系统本身。相反,问题在于公司如何使用这些系统来帮助人类,以及他们向股东和公众解释这些系统的作用的能力,以建立信任和信心。
机器学习是人工智能的一种形式,可以适应广泛的输入,包括大量历史数据、合成数据或人类输入。(一些机器学习算法专门用于训练自己来检测模式;这被称为深度学习。参见图表 1。这些算法可以检测模式,并学习如何通过处理数据而不是通过接收显式编程指令来做出预测和建议。一些算法还可以根据新的数据和体验进行调整,以随着时间的推移而改进。
现在生成的数据量和复杂性太大,人类无法有效地处理和应用,这增加了机器学习的潜力以及对它的需求。自 1970 年代开始广泛部署以来,机器学习对许多行业产生了影响,包括医学成像分析和高分辨率天气预报方面的成就。
深度学习是机器学习的更高级版本,特别擅长处理更广泛的数据资源(文本以及包括图像在内的非结构化数据),需要更少的人工干预,并且通常可以产生比传统机器学习更准确的结果。深度学习使用神经网络(基于神经元在人脑中的交互方式)来摄取数据,并通过多个神经元层处理数据,这些神经元层可以识别数据中越来越复杂的特征。例如,早期图层可能会将某物识别为具有特定形状的物体;基于这些知识,后面的图层可能能够将形状识别为停车标志。与机器学习类似,深度学习使用迭代来自我校正并提高其预测能力。例如,一旦它“了解”了停车标志的样子,它就可以识别新图像中的停车标志。
生成式 AI(Generative AI,简称gen AI)是一种响应提示生成内容的 AI 模型。很明显,ChatGPT 和 DALL-E(一种用于 AI 生成的艺术工具)等生成式 AI 工具有可能改变一系列工作的执行方式。关于一代人工智能的潜力还有很多未知之处,但我们可以回答一些问题——比如一代人工智能模型是如何构建的,它们最适合解决什么样的问题,以及它们如何适应更广泛的人工智能和机器学习类别。
“人工智能”一词是由计算机科学家约翰·麦卡锡(John McCarthy)于1956年在达特茅斯的一次研讨会上创造的。但他并不是第一个写到我们现在描述为人工智能概念的人。 艾伦·图灵(Alan Turing)在1950年的一篇论文中引入了“模仿游戏”的概念。这是对机器表现出智能行为能力的测试,现在被称为“图灵测试”。他认为研究人员应该专注于不需要太多感知和行动的领域,比如游戏和语言翻译。在许多情况下,致力于计算机视觉、自然语言理解和神经网络等概念的研究社区已有几十年的历史。
麻省理工学院物理学家罗德尼·布鲁克斯(Rodney Brooks)分享了人工智能前四个阶段的细节:
符号人工智能的主要问题是,人类仍然需要手动将他们对世界的知识编码到符号人工智能系统中,而不是让它自己观察和编码关系。因此,符号人工智能系统在涉及现实世界复杂性的情况下苦苦挣扎。他们也缺乏从大量数据中学习的能力。
直到 1980 年代后期,符号 AI 一直是 AI 研究的主导范式。
神经网络于 1943 年由神经生理学家 Warren McCulloch 和逻辑学家 Walter Pitts 在一篇学术论文中首次提出。几十年后的1969年,麻省理工学院的两位研究人员在数学上证明了神经网络只能执行非常基本的任务。1986年,计算机科学家和认知心理学家杰弗里·辛顿(Geoffrey Hinton)及其同事解决了麻省理工学院研究人员提出的神经网络问题。在 1990 年代,计算机科学家 Yann LeCun 在神经网络在计算机视觉中的应用方面取得了重大进展,而 Jürgen Schmidhuber 则推进了递归神经网络在语言处理中的应用。
2012 年,Hinton 和他的两个学生强调了深度学习的力量。他们将Hinton的算法应用于具有比典型层多得多的神经网络,引发了对深度神经网络的新关注。这些是近年来主要的人工智能方法。
但传统的机器人技术确实在一个领域产生了重大影响,通过一种称为“同步定位和映射”(SLAM)的过程。SLAM算法有助于自动驾驶汽车的发展,并被用于真空清洁机器人和四轴飞行器无人机等消费产品。今天,这项工作已经发展成为基于行为的机器人技术,也被称为触觉技术,因为它对人类的触摸做出反应。
“通用人工智能”(AGI)一词是用来描述具有与人类相当的能力的人工智能系统。从理论上讲,AGI有朝一日可以复制类似人类的认知能力,包括推理、解决问题、感知、学习和语言理解。但是,我们不要超越自己:这里的关键词是“有一天”。大多数研究人员和学者认为,我们距离实现AGI还有几十年的时间;有些人甚至预测,我们在本世纪甚至永远不会看到AGI。麻省理工学院机器人专家、iRobot联合创始人罗德尼·布鲁克斯(Rodney Brooks)认为AGI要到2300年才会到来。
AGI出现的时间可能不确定。但是,当它真的出现时——而且很可能会出现——在我们生活的方方面面,这将是一个非常重要的问题。高管们应该开始努力了解机器现在实现人类水平智能的路径,并过渡到一个更加自动化的世界。
狭义人工智能是将人工智能技术应用于特定且定义明确的问题,例如 ChatGPT 等聊天机器人、发现信用卡交易欺诈的算法以及快速处理数千份法律文件的自然语言处理引擎。当前的大多数 AI 应用程序都属于狭义 AI 类别。相比之下,AGI是人工智能,它足够智能,可以执行广泛的任务。
人工智能对各种企业来说都是一个大故事,但一些公司显然走在了前面。我们在 2022 年的 AI 状况调查显示,自 2017 年以来,AI 模型的采用率增加了一倍多,投资也迅速增加。更重要的是,公司从人工智能中看到价值的具体领域已经发生了变化,从制造和风险到以下方面:
一组公司正在领先于竞争对手。这些组织的领导者不断对人工智能进行更大的投资,提升他们的实践以更快地扩展,并雇用和提高最优秀的人工智能人才的技能。更具体地说,他们将人工智能战略与业务成果联系起来,并通过设计可以快速适应新应用程序的模块化数据架构来“工业化”人工智能运营。
我们还没有看到一代AI模型的长尾效应。这意味着使用它们存在一些固有的风险——包括已知的和未知的。
一代 AI 模型产生的输出通常听起来非常有说服力。这是设计使然。但有时他们生成的信息是完全错误的。更糟糕的是,有时它是有偏见的(因为它是建立在互联网和社会的性别、种族和其他偏见之上的)。
它也可以纵以实现不道德或犯罪活动。自从一代人工智能模型突然出现以来,组织已经意识到用户试图“越狱”模型——这意味着试图让他们打破自己的规则,提供有偏见的、有害的、误导性的,甚至非法的内容。Gen AI 组织正在以两种方式应对这种威胁:一方面,他们正在收集用户对不当内容的反馈。他们还在梳理他们的数据库,识别导致不适当内容的提示,并针对这些类型的世代训练模型。
但是,意识甚至行动并不能保证有害内容不会漏网。依赖 Gen AI 模型的组织应意识到无意中发布有偏见、冒犯性或受版权保护的内容所涉及的声誉和法律风险。
但是,可以通过几种方式减轻这些风险。麦肯锡合伙人玛丽·埃尔·霍耶克(Marie El Hoyek)说:“每当你使用一个模型时,你都需要能够反驳偏见,并指示它不要使用不适当或有缺陷的来源,或者你不信任的东西。如何?首先,仔细选择用于训练这些模型的初始数据以避免包含有毒或有偏见的内容至关重要。接下来,组织可以考虑使用更小的专业模型,而不是采用现成的 AI 模型。拥有更多资源的组织还可以根据自己的数据定制通用模型,以满足他们的需求并最大限度地减少偏见。
同样重要的是,要让人类参与其中(即确保真正的人类在发布或使用一代人工智能模型之前检查其输出),并避免将一代人工智能模型用于关键决策,例如涉及大量资源或人类福利的决策。
这是一个新领域,怎么强调都不为过。未来几年,风险和机遇的格局可能会继续迅速变化。随着人工智能越来越多地融入商业、社会和个人生活,我们也可以期待新的监管环境正在形成。随着组织使用这些工具进行试验并创造价值,领导者将很好地掌握监管和风险的脉搏。
美国政府于 2022 年制定的《人工智能权利法案蓝图》为政府、科技公司和公民如何共同确保更负责任的人工智能提供了一个框架。随着人工智能变得越来越普遍,人们开始担心生成人工智能系统的功能、用于训练它们的数据、偏见和公平性问题、潜在的知识产权侵权、隐私侵犯等可能缺乏透明度。该蓝图包括五项原则,白宫表示,这些原则应“指导自动化系统的设计、使用和部署,以在人工智能时代保护[用户]。它们如下:
目前,有60多个国家或集团制定了负责任地使用人工智能的国家战略(图2)。这些国家包括巴西、中国、欧盟、新加坡、韩国和美国。所采取的方法各不相同,从基于指南的方法(例如美国的《人工智能权利法案蓝图》)到与现有数据保护和网络安全法规保持一致的综合人工智能法规(例如将于 2024 年到期的欧盟《人工智能法案》)。
各国之间也在努力制定人工智能使用标准。美国-欧盟贸易和技术委员会(US-EU Trade and Technology Council)正在努力加强欧洲和美国之间的协调。全球人工智能伙伴关系成立于 2020 年,拥有 29 个成员,包括巴西、加拿大、日本、美国和几个欧洲国家。
尽管人工智能法规仍在制定中,但组织应立即采取行动,以避免法律、声誉、组织和财务风险。在公众关注的环境中,一个失误可能会付出高昂的代价。以下是组织今天可以实施的四项无悔、先发制人的行动:
大多数组织都在涉足 AI 池,而不是炮弹。广泛采用的进展缓慢可能是由于文化和组织障碍造成的。但是,有效打破这些障碍的领导者将最有能力抓住人工智能时代的机遇。而且,至关重要的是,在汽车制造和金融服务等行业,那些无法充分利用人工智能的公司已经被那些能够充分利用人工智能的公司排挤了。
为了扩大 AI 的规模,组织可以做出三个重大转变:
来源:麦肯锡博客What is AI (artificial intelligence)? | McKinsey