近日,阿里云通义千问发布全球性能最强的开源模型 Qwen2-72B,相比 2 月推出的 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。
性能不仅超过最强的开源模型 Llama3-70B,也超过文心 4.0、豆包pro、混元 pro 等中国闭源大模型,所有人均可在魔搭社区和 Hugging Face 免费下载这一模型。
如何看待阿里云 Qwen2 性能超越 Llama3 ?
相比于OpenAI扭扭捏捏、踌躇不定的挤牙有姿态,相比李彦宏说闭源模型能力会持续领先,开源意义不大的样子,还是更欣赏Meta和阿里这种走开源路线的厂商。它们真正贯彻了互联网的精神:开放、平等、协作、分享。
今日,阿里云用Qwen2a再次向我们证明了一个道理:开源并不代表落后,反而成为了我们角逐国际舞台的重要力量:
一、关于大模型
未来几年仍然是LLMA大放异彩的时光,更宽泛的说,注定是生成式AI大放光芒的一段岁月。
从LLM出现以后,我感觉自己几乎每天都会使用LLM来办公以及生活等,轮番上阵,不停歌。无论是代码生成、文档解读,还是无趣时的闲聊,似乎没有哪天是LLM与我缺席的。
阿里的通义千问算是比较常用的一个LLM了,他们非常贴心的开放了自己的智能体,一个类似prompt库的智能体集合,非常方便。其在输入问题时其也可自动化的联网搜索,这是目前免费的gpt-3.59所无法提供的联网以及插件功能,加之网络访问问题,合起来构成我不怎么用openai9的原因。
今天,通义开源了Qwen2系列。Qwen的开源在海外一直备受关注,口碑很好。果然,这次也是刚刚开源,就登上了HuggingFace的开源大模型的榜首。
二、不失崇高的开源之旅
阿里的开源选择,一直都是持续关注的,开源的伟大,无需多言。
去年八月初,阿里云便率先开源了自己的QWen-7B和QWen-7B-Chat,一度中上HuggingFace趋势榜单,Githuba也获星颇多,两个模型的参数规模都是70亿。
这次,Qwen2开源系列包含5个尺寸的预训练和指令微调模型,系列模型还大幅提升了代码、数学、推理、指令遭循、多语言理解等能力
今日,阿里云用Qwen2再次向我们证明了一个道理:开源并不代表落后。打败OpenAl的,一定不是表现更优秀的闭源模型,而是开源这条赛道。
三、关于Qwen2
体验了一下Qwen2,进行了匿名的随机对战测试。不得不说,Qwen的能力确实够强,文本生成速度飞快,也够专业,可为实力强劲。
看来阿里不仅开源频率和速度全球无二、模型性能也不断进化,两面齐开花。
这样的精彩表现,一是阿里本身的技术能力,二是秉持着伟大的互联网开源精神,多方互相协作的结果。
不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家橙型、代码大模型。开源频率和速度全球无二,模型的性能也随着版本选代而肉眼可见地进化,从Qwen-72B开始,逐渐步入全球大模型竞争的核心腹地,在权威榜单多次创造中国大模型的“首次”。
阿里的报告展示了大型模型在四种多语言不安全查询类别(非法活动、欺诈、色情、隐私暴力)中生成有害响应的比例。测试数据来源于Jailbreak9,并被翻译成多种语言进行评估。
通过显著性检验(P值),发现Qwen2模型在安全性方面与GPT-4的表现相当,并且显著优于Mixtra-8x22B模型。
四、如何看待阿里云开源大模型
现在,Qwen2系列模型的API已经登陆了阿里云百炼平台,还有一大堆开源平台和工具都宣布支持Qwen2,阿里云的CTO周靖所言非虚,阿里云,确实是「AI时代最开放的云」。
Qwen从最开始单一感官的、仅支持文本输入的语言模型,到“五官全开”的、支持文本、图像、音频等多种信息输入的多模态模型,到如今性能全面超越所有国内闭源大模型,一步步我都持续关注,看在眼里,为这样的进取而开心。
这次对Qwen2的测评体验下来是非常棒的,技术特点很突出。而且对Qwen系列模型的未来发展也充满信心,希望能在更多领域发挥作用,也希望更多的社区成员能参与进来,共同推动开源型的发展和进步,对于开发者来说,不仅仅是多了个强大的工具,更是开源的一次伟大胜利!
从去年到现在,阿里这种连续快速的开源动作,显示出了其拥抱开源的决心和态度。国内头部大模型厂商的技术引领和技术共享,不仅对于推进中国大模型生态建设意义重大,而且对于所有开发者和用户的帮助和体验也都是极为重要的。
在相当长的时间内,开源必将带来更大的普及性,占据更大的讨论价值和研究地位,取得更大的技术进步。此外,得益于阿里云的存在,通义千问本身也在提供云端的自研大模型,这种开源和云端的一体结合共存,我觉得为了会吸引越来越多的普通用户和开发者。
最后,希望秉持着Meta和阿里云这种开源神的大模型厂商越来越多,技术共享,百花齐放,构建更开放完善的LLM生态。
暂无评论内容