#长文创作激励计划#
我们在进行角色扮演类游戏的时候,游戏中往往会设计一个选择及购买“雇佣兵”的功能。这个雇佣兵能够始终围绕在玩家扮演的角色身边,协助玩家进行自动攻击或者防御,为玩家的升级打怪赋能助力。
而在现实生活中,我们是否也希望有这样一个“雇佣兵”。它随时就在我们身边,为我们答疑解惑,辅助我们攻坚克难,当然也可以逗乐打趣、畅享人生......是的,所有的事项(生活、学习、工作等诸多方面),它都能够与我们一起共度、共享,甚至于共生。
而GPT-4,可能就是这样的一个““雇佣兵”,这个强大的人工智能模型展现出各种能力,深入了解和应用的我们,真的是叹为观止。
GPT-4是ChatGPT(GPT-3.5)的升级版。ChatGPT(GPT-3.5)在2022年11月发布之后已经引起世界各领域的密切关注,并已经给我们带来了极大的震撼。而2023年3月,OpenAI新发布的GPT-4,相比GPT-3.5要强大的多。
GPT-4发布后,微软公司的研究人员发表了题为Sparks of Artificial General Intelligence:Early Experiments with GPT-4(人工通用智能的火花:GPT-4的早期实验)的论文。论方中证明了GPT-4除了精通语言,还可以解决一些全新且困难的任务,涉及数学、医学、律法、行为 心、心理学等等领域,而且无须任何特别的提示或引导。特别是,在这些任务中,GPT-4的表现已非常接近甚至超过了人类的水平,远远超过了之前的模型。研究人员认为GPT-4可以被看作人工智能(Artificial General Intelligence,AGI)的最初版本。
另外,在各种专业和学术类的考试及自然语言处理测试中,GPT-4的表现也基本达到或者说超越了人类的一般水准。比如说,GPT-4在高等数学了、微观经济学、法学、生物、物理、化学、地理、历史等科目中,可以取得很优秀的成绩。在美国的模拟律师资格考试中,GPT-4的成绩位居前10%。
另外,GPT-4的能力并不限于考试、做题。GPT-4已有能力帮助我们又快又好地完成各种任务。也就是说,它是一个实实在在的生产力工具,它不但能与我们对话,还可以进行各种主题写作,命题绘画,同声翻译,智能推荐,分析预测......它基本能够应用在各行各业,如广告、教育、直播、新闻、创作等等方面。
量变引起质变,GPT-4呈现出大语言模型中非常经典的“涌现”能力。涌现(Emergence)是一个复杂系统的重要现象,是一种当整个系统的行为无法仅仅通过其部分的行为来预测或解释的情况。最简单的理解,涌现就是由量变引起的质变,是整体大于部分相加总和(1+1>2)的典型现象或能力。
更具体地说,涌现通常用于描述由低层次的简单交互产生的高层次的复杂行为的现象。这些高层次的复杂行为不能直接从最简单的交互中预测出来,但是在特定的条件和规则下,它们可以从这些交互中“涌现”出来。
现实生物界,就有个非常好的例子来说明这种现象。我们都知道的蚂蚁:每只蚂蚁的行为看似非常简单——寻找食物,将食物带回蚁巢,同时避开各种障碍物;但当我们把目光着眼于一群蚂蚁时,我们会看到一种非常复杂的行为模式,它们能够建造非常复杂的蚁巢,能够找到最短的路径把食物带回蚁巢,能够协作防御天敌。
蚂蚁群体的这类行为就是“涌现”的典型示例。单独一只蚂蚁并不能建设出如此复杂的蚁巢,也不能找到最短的路径,也不能有效地防御天敌。但是,一个蚁群,通过彼此之间的相互作用,产生出如此复杂的行为。这些复杂的行为是从蚁群的相互作用中涌现出来的,而不是每只蚂蚁单独的能力。
而涌现能力,说的就是指在小规模模型中不存在,但在大模型中存在的能力。
通常,ChatGPT等大语言模型包含了上百亿、上千亿甚至上万亿个参数,它们是在海量文本数据的基础上被训练出来的。ChatGPT等大语言模型又是建立在Transformer架构之上,且多头注意机制层层叠加,最终形成了一个极深的神经网络。这类大语言模型虽然采用的是和小模型类似的架构和预训练目标,但是规模几乎是指数倍的扩大,其参数量、训练数据和计算量都增加了好几个数量级,最终才产生了“涌现”这种能力。
这样,ChatGPT等大语言模型可以更好地理解语言,并根据给定的上下文生成高质量的回复。模型规模的扩大化,使其性能也得以更进一步。随着时间的推移和计算能力的加强,某些能力(如对上下文的理解),只有在模型超过一定规模时才会出现。这也是ChatGPT等大语言模型与小模型之间最显著的区别——它们涌现出新的、更强大的语言理解与生成能力。
以下三种新的能力将使ChatGPT大有可为:
一是上下文理解:ChatGPT可以通过输入文本的词序列,生成测试实例的预期输出,而无须额外训练,这表示它已经有了语境的理解能力。
二是遵循指令:ChatGPT可以通过理解简单的自然语言描述,在简单任务上表现良好,这表示它具备了遵循人类指令行事的能力。这使其可以不需要明确的样本说明就能完成新的任务,拥有一定的泛化能力。
三是推理能力:小模型难以解决需要多步推理的复杂任务,而ChatGPT可以利用涉及中间推理步骤的提示,一步一步解决此类任务并给出最终答案。这表示它具有一定的逻辑推理能力,这种能力可能来自海量的模型训练。
简而言之,ChatGPT等大语言模型通过模型规模的扩大,获得了更强的语言理解、语境感知、人机交互及逻辑推理等能力。这使其不再是简单的统计学习工具,而更像是一个可以理解语言和世界的“雇佣兵”,这也是这类大语言模型最令人兴奋的地方。
可以确认的是,ChatGPT等大语言模型将会进一步扩大模型规模,融入更多真实世界的知识,其智能水平将会越来越高,人工智能的未来已来。
ChatGPT等大语言模型的能力如何之大,我们是否会担心一个问题:GPT们会“抢”走我们的工作吗?虽然我们可能不太愿意认可或承认,但是这个问题的答案会很明确:会。
2023年3月,OpenAI发布了一篇研究论文GPTs are GPTs:An Early Look at the Labor Market Impact Potential of Large Language Models(GPTs are GPTs:大语言模型对劳动力市场的潜在影响的早期研究),调查ChatGPT等大语言模型可能对劳动力市场产生的影响。
这篇论文的研究主要提出了以下几个结论:
一是,绝大多数职业在某种程度上都会受到大语言模型的影响,美国约百分之八十的工作者至少会有百分之十的工作任务,可能会受到ChatGPT等大语言模型的影响。其中约百分之19的员工可能会有百分之五十的工作任务都受到影响。
二是,这种影响涉及各个工资水平的职业。除去部分非常特殊的情况,从整体来看,工资水平越高的职业,受ChatGPT的冲击程度会越大;
......
这篇论文中还有更多详细的结论,如果对这个话题感兴趣,可以找渠道,阅读一下原始论文。
当然,ChatGPT等大语言模型再怎么强大,也不可能完全取代人类的工作。
首先,GPT有其局限性。GPT的优势在于其处理大量数据和生成文本的能力。它可以快速生成报告、撰写文章、甚至创作诗歌。这在一定程度上可以提高工作效率,减轻人类的负担。但是,GPT也有其局限性。它缺乏人类的创造力、情感和道德判断。GPT生成的文本可能缺乏深度和个性,无法完全满足个性化和创造性的需求。
其次,工作的性质。工作的性质决定了GPT是否能够取代。对于一些重复性高、创造性低的工作,如数据录入、简单的文案撰写等,GPT会在一定程度上取代人类。但对于需要高度创造性、情感投入和复杂决策的工作,如艺术创作、心理咨询、高级管理等,GPT很可能难以取代。
再次,人机协作。GPT的发展并不是要取代人类,而是要与人类协作。通过人机协作,我们可以利用GPT的优势,提高工作效率,同时保留人类的创造力和情感。例如,在新闻报道中,GPT可以快速生成初稿,而记者则可以在此基础上进行深入采访和分析,提供更有价值的内容。
还有,社会政策与伦理问题。GPT的发展也引发了社会政策和伦理的讨论。如何确保AI的公正使用,保护个人隐私,避免失业问题,这些都是我们需要面对的挑战。政府和企业需要制定相应的政策和规范,确保AI技术的发展能够造福人类,而不是造成社会分裂。
展望未来,GPT和其他AI技术将继续发展,它们将在更多领域发挥作用。但我们应该认识到,AI是人类智慧的产物,它们应该服务于人类,而不是取代人类。我们需要不断探索人机协作的新模式,让AI成为推动社会进步的力量。