全球开源模型新星Qwen2-72B诞生,表现惊人

发表时间: 2024-06-07 23:02

【新智元导读】一夜之间,全球最强开源模型再次易主。万众瞩目的Qwen2-72B一出世,火速杀进开源LLM排行榜第一,美国最强开源模型Llama3-70B直接被碾压!全球开发者粉丝狂欢:果然没白等。


一觉醒来,中国的开源模型再次震撼了全世界。

坐等许久,Qwen2-72B终于发布了!这个模型一出世,直接杀进开源LLM排行榜第一,完全碾压美国最强的Llama3-70B。

有趣的是,第二名也是来自阿里的Qwen1.5-110B

在各大基准测试中,Qwen2-72B一举斩获了十几项世界冠军,尤其在代码和数学能力上提升最为明显。

同时,相较于上一代Qwen1.5,Qwen2也实现了大幅的性能提升。

另外,开源Qwen2-72B还击败了国内一众闭源大模型,包括文心4.0、豆包Pro、混元Pro等等。

72B指令微调版模型,还增大了上下文长度支持,最高可达128k token。在16个基准测试中,Qwen2-72B-Instruct的性能可与Llama-3-70B-Instruct相匹敌。

得益于高质量的数据,Qwen2-72B-Instruct在数学、代码能力上实现飞升。

值得一提的是,模型训练过程中,除了采用中英文数据,还增加了27种语言相关的高质量数据。

现在,所有人均可在魔搭社区和Hugging Face免费下载Qwen2最新开源模型。

凭借取得的卓越性能,Qwen2-72B深受AI大佬们关注,在整个AI圈掀起了轩然大波。

模型刚发布2小时,HugingFace联创Clément Delangue立即宣布,「HF大模型榜上诞生了一个全新的、排名第一的开源模型——Qwen2-72B」。

AI初创CEO称,「一切都结束了!OSS迎来了一位新王者——Qwen-2的MMLU为84.32,完全堪称GPT-4o/Turbo级别模型」!

4个月不到的时间,Qwen-2-72B的生成质量已经和GPT-4不分伯仲。

网友震惊发现,在编码上Qwen2绝对超越了Llama 3!

加冕为王的Qwen2-72B究竟有多强,接下来让我们一起来看看。

开源新王Qwen2-72B发布!


差不多4个月时间,阿里团队就完成从Qwen1.5到Qwen2跨越式的迭代升级。

除了Qwen2-72B,Qwen2系列包含了5种不同参数规模的预训练和指令微调模型。

其中还有,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B,都可支持32K上下文。

相比2月推出的通义千问Qwen1.5,Qwen2实现了整体性能的代际飞跃。

在权威模型测评榜单OpenCompass中,此前开源的Qwen1.5-110B已领先于文心4.0等一众国产闭源模型。

刚刚开源的Qwen2-72B,整体性能相比Qwen1.5-110B又取得了大幅提升。

开篇一张表,很明显地可以看出Qwen2-72B在数学(GSM8K、MATH),以及代码(C-Eval)、逻辑推理(CMMLU)、多语言能力上(MMLU),取得了明显的提升。

其性能大幅超越了著名的开源模型Llama3-70B、Mixtral-8x22B。尤其是在代码、逻辑推理上,领先对手20+分。

指令微调版的Qwen2-72B-Instruct,汲取了CodeQwen1.5强大的代码经验,并将其融入研发。

结果如下,在8种编程语言上,尤其是JS、C++,Qwen2-72B-Instruct性能超越Llama-3-70B-Instruct。

在数学上,Qwen2-72B-Instruct同时实现了数学能力显著提升,在如下四个基准测试中,性能分别超越了Llama-3-70B-Instruct。

另外,小模型方面,Qwen2系列基本能够超越同等规模的最优开源模型,甚至更大参数规模的模型。

比起Llama3-8B-Instruct,Qwen2-7B-Instruct能在多个评测上取得显著的优势,尤其是代码及中文理解上。

最高128k,大海捞针全绿

Qwen2系列中,所有的Instruct模型均在32k上下文中,进行了训练。

在大海捞针实验中,Qwen2-72B-Instruct能够完美处理128k上下文长度内的信息抽取任务,实现了全绿的成绩。

如果有足够的算力,72B指令微调版凭借其强大的性能,一定可以成为处理长文本任务的首选。

更值得一提的是,为了提升模型多语言能力,研究人员还针对性地对除中英文以外的27种语言进行了增强:

比如阿拉伯语、法语、荷兰语等等。

在阿拉伯语榜单上,Qwen2-72B性能直接刷榜。

安全性堪比GPT-4

当然,模型安全也是训俩过程中,至关重要的一部分。

如下,展示了大模型在四种多语言不安全查询类别(非法活动、欺诈、色情、隐私暴力)中生成有害响应的比例。

通过显著性检验(P值),看得出Qwen2-72B-Instruct模型在安全性方面,与GPT-4的表现相当,并且显著优于Mistral-8x22B模型。

坚持开源,唯一引起Altman注意的国产大模型

依靠着强大研发能力、领先的基础设施能力,以及开源社区的充分支持,通义千问大模型一直在持续优化和进步。

2023年8月,这个消息振奋了国内AI圈:阿里云成为国内首个宣布开源自研模型的科技企业,推出第一代开源模型Qwen。

而在随后不到一年时间,通义先后开源了数十款不同尺寸模型,包括大语言模型多模态模型、混合专家模型、代码大模型等等。

这种开源频率和速度,可以说是全球无二,模型性能也在随着版本迭代肉眼可见地进化。

而自Qwen-72B诞生后,Qwen系列更是逐渐步入全球大模型竞争的核心腹地,在权威榜单上,多次创造中国大模型的「首次」!

不久前,奥特曼在X上转发了一条OpenAI研究员公布的消息,GPT-4o在测试阶段登上了Chatbot Arena(LMSys Arena)榜首位置。

这个榜单,是OpenAI唯一认可证明其地位的榜单,而Qwen,正是其中唯一上榜的国内模型。

多次冲进LMSys榜单的国产大模型,只此一家

另外,早些时候有人做了个LMSys榜单一年动态变化的视频。

结果显示,过去一年内,国产大模型只有Qwen多次冲进这份榜单。

最早出现的,是通义千问14B开源视频Qwen-14B,然后就是Qwen系列的72B、110B以及通义千问闭源模型Qwen-Max。

而且,它们的得分一个比一次高,LMSys也曾官方发推,认证通义千问开源模型的实力。

可以看出,在顶尖模型公司的竞争中,目前为止,中国模型只有通义千问真正入局,能与头部厂商一较高下。

爆火全球AI社区,歪果仁:真香


如今,Qwen系列模型已经在全球范围内爆火,成为最受外国开发者瞩目的中国开源模型之一。

在不到一年时间,通义千问密集推出了Qwen、Qwen1.5、Qwen2三代模型,直接实现了全尺寸、全模态的开源。

就在最近一个月内,Qwen系列的总下载量已经翻了倍,直接突破1600万次。

与此同时,在海内外开源社区,基于Qwen二次开发的模型和应用,已经出现超过1500款!

其实,早在今年2月Qwen1.5发布前后,就有大量开发者在线催更Qwen2。

开发者用脚投票的结果,直接显示了Qwen系列有多受欢迎。

在网上冲浪的时候,会明显发现Qwen的很多忠实拥趸都是海外开发者,他们时常在社交平台发表「我们为什么没有这种模型」的溢美之词。

19岁获得博士的Stability AI研究主任Tanishq表示,以Qwen为代表的最有竞争力、为开源生态做出重大贡献的开源基础模型,就是来自中国。

6月7日晚24点左右,众望所归的Qwen2上线后,也迅速获得多个重要的开源生态伙伴的支持。

其中包括,TensorRT-LLM、OpenVINO、OpenCompass、XTuner、LLaMA-Factory、Firefly、OpenBuddy、vLLM、Ollama等。

可以说,通义大模型用行动证明了开源开放的力量。

商业模型更具前景

阿里云是全球唯一一家积极研发先进AI 模型,并且全方位开源的云计算厂商。

坚持自研与开源,也让阿里云的商业模型更具前景。

在未来的大模型市场,不可能是一个模型能适应所有需求,也不可能只有一种模型服务方式(API)。

开源模型把选择权交给了企业和开发者,让能用户在场景、性能、成本之间,找到理想的配比。

其实,从自身主观来说,这也正是云厂商的本质使然。

云计算算力集中、灵活部署、按需付费、成本较低的特点,天然就适配大规模的推理需求。

在5月,阿里云发起「击穿全球底价」的大模型API降价,目的正是加速AI应用爆发。

如今,坚持做「国货」的阿里云,也在坚持着开放路线。

卷价格,抑或是卷模型本身,都是在为激活AI行业生态贡献力量,加速应用爆发,从而形成有国际竞争力的技术体系和话语体系。

生态建设

如今,AI大模型已成全球数字技术体系的竞争,这个体系包括芯片、云计算、闭源模型、开源模型、开源生态等等。

中国信息化百人会执委、阿里云副总裁安筱鹏指出,全球AI大模型竞争的制高点,就是AI基础大模型,因为它决定了产业智能化的天花板,商业闭环的可能性,应用生态的繁荣以及产业竞争的格局。

与此同时,开源生态在整个技术体系的竞争中也有着至关重要的作用。

优质的开源模型,让海量的中小企业和开发者免于从头开始训练大模型,直接站在前沿技术成果的肩膀上做创新。就好比从海拔0米的地方把人运送到5000米的珠峰大本营,再去爬剩下的3000米。

阿里云持续开源自研模型,牵头建设中国最大的AI开源社区魔搭,正是为了推动AI应用门槛的降低。

如今,大模型应用创新的奇点还没有到来。

当大模型的大部分潜力被真正挖掘出来,当越来越多开发者和企业结合自己需求,促进大模型的发展和应用,届时必将发生天翻地覆的变化。

参考资料:

https://qwenlm.github.io/blog/qwen2/