发现流行的 AI 神话背后的真相,并深入了解生成式 AI 在当今世界的真正功能和影响。
人工智能无疑是我们这个时代的流行语。它的流行,特别是随着 ChatGPT 等生成式 AI 应用程序的出现,将其带到了技术辩论的最前沿。
每个人都在谈论像 ChatGPT 这样的 AI 生成应用程序的影响,以及利用它们的能力是否公平。
然而,在这场完美的风暴中,围绕人工智能或人工智能一词的众多神话和误解突然激增。
我敢打赌,你可能已经听说过很多了!
让我们深入研究这些神话,打破它们,并了解人工智能的真正本质。
与普遍的看法相反,人工智能根本不是智能的。如今,大多数人确实认为人工智能驱动的模型确实是智能的。这可能是由于在“人工智能”名称中加入“智能”一词
但智能意味着什么?
智力是生物体独有的特征,定义为获取和应用知识和技能的能力。这意味着智能允许生物体与周围环境互动,从而学习如何生存。
另一方面,人工智能是一种机器模拟,旨在模仿这种自然智能的某些方面。我们与之交互的大多数 AI 应用程序,尤其是在商业和在线平台中,都依赖于机器学习。
这些是使用大量数据针对特定任务进行训练的专用 AI 系统。他们在指定的任务中表现出色,无论是玩游戏、翻译语言还是识别图像。
然而,在它们的范围之外,它们通常毫无用处......人工智能在一系列任务中拥有类似人类的智能的概念被称为通用人工智能,我们远未实现这一里程碑。
科技巨头之间的竞争通常围绕着吹嘘其人工智能模型的庞大规模展开。
Llama 的 2 个开源 LLM 发布以强大的 700 亿个功能版本让我们感到惊讶,而谷歌的 Palma 则有 5400 亿个功能,OpenAI 最新推出的 ChatGPT4 以 1.8 万亿个功能大放异彩。
然而,LLM 的十亿个特征并不一定能转化为更好的性能。
数据质量和训练方法通常是模型性能和准确性的更关键决定因素。斯坦福大学的 Alpaca 实验已经证明了这一点,一个简单的 70 亿个特征驱动的基于 Llama 的 LLM 可以与惊人的 1760 亿个特征驱动的 ChatGPT 3.5 相提并论。
所以这显然不行!
并非越大越好。优化 LLM 的大小及其相应的性能将使这些模型在本地的使用大众化,并允许我们将它们集成到我们的日常设备中。
一个常见的误解是,人工智能是一个神秘的黑匣子,没有任何透明度。在现实中,虽然人工智能系统可能很复杂,而且仍然相当不透明,但人们正在做出重大努力来提高其透明度和问责制。
监管机构正在推动以合乎道德和负责任的方式使用人工智能。《斯坦福人工智能透明度报告》和《欧洲人工智能法案》等重要运动旨在促使企业提高人工智能透明度,并为政府制定这一新兴领域的法规提供依据。
透明人工智能已成为人工智能社区的焦点讨论点,涵盖了无数问题,例如允许个人确定人工智能模型的彻底测试以及理解人工智能决策背后的基本原理的过程。
这就是为什么世界各地的数据专业人士已经在研究使人工智能模型更加透明的方法。
因此,虽然这可能是部分正确的,但它并不像常见的那么严重!
许多人认为人工智能系统是完美的,不会出错。这与事实相去甚远。与任何系统一样,人工智能的性能取决于其训练数据的质量。这些数据通常是由人类创建或策划的,而不是说总是如此。
如果这些数据包含偏见,人工智能系统会无意中使它们永久化。
麻省理工学院的一个团队对广泛使用的预训练语言模型的分析揭示了将性别与某些职业和情感联系起来的明显偏见。例如,空姐或秘书等角色主要与女性特质有关,而律师和法官则与男性特质有关。在情感方面也观察到了同样的行为。
其他检测到的偏见是关于种族的。随着 LLM 进入医疗保健系统,人们担心它们可能会使有害的基于种族的医疗实践永久化,这反映了训练数据中固有的偏见。
人为干预必须监督和纠正这些缺点,确保人工智能的可靠性。关键在于使用具有代表性和公正的数据,并进行算法审计来抵消这些偏见。
最普遍的担忧之一是人工智能将导致大规模失业。
然而,历史表明,虽然技术可能会使某些工作过时,但它同时催生了新的行业和机会。
例如,世界经济论坛预测,虽然人工智能可能会在2025年取代8500万个工作岗位,但它将创造9700万个新工作岗位。
最后一个也是最反乌托邦的那个。流行文化,如《黑客帝国》和《终结者》,描绘了一幅人工智能奴役人类潜力的严峻画面。
虽然埃隆·马斯克(Elon Musk)和斯蒂芬·霍金(Stephen Hawking)等有影响力的声音表达了担忧,但人工智能的现状与这种反乌托邦形象相去甚远。
今天的人工智能模型,如ChatGPT,旨在协助完成特定任务,不具备科幻故事中描述的能力或动机。
所以就目前而言......我们仍然安全!
总之,随着人工智能不断发展并融入我们的日常生活,将事实与虚构区分开来至关重要。
只有清楚地了解它,我们才能充分发挥其潜力,负责任地应对其挑战。
神话会遮蔽判断并阻碍进步。
有了知识和对人工智能实际范围的清晰理解,我们就可以向前迈进,确保该技术服务于人类的最佳利益。
Josep Ferrer 是来自巴塞罗那的分析工程师。他毕业于物理工程专业,目前在应用于人类移动的数据科学领域工作。他是一名专注于数据科学和技术的兼职内容创作者。您可以在LinkedIn,Twitter或Medium上与他联系。
原文标题:6 Artificial Intelligence Myths Debunked: Separating Fact from Fiction
原文链接:
https://www.kdnuggets.com/6-artificial-intelligence-myths-debunked-separating-fact-from-fiction
作者:Josep Ferrer
编译:LCR