通义千问,杀疯了!

通义千问自2023年4月问世以来,前阵子阿里云正式发布通义千问2.5。相比上一版本,2.5版模型的理解能力、逻辑推理、指令遵循、代码能力分别提升9%、16%、19%、10%,中文能力更是持续领先业界。同时,通义千问1100亿参数开源模型在多个基准测评收获最佳成绩,超越Llama-3-70B,成为开源领域最强大模型。

图片[1]-通义千问,杀疯了!-JieYingAI捷鹰AI

而且在权威大模型评测基准平台 OpenCompass 上,通义千问 2.5 的得分追平了 GPT-4 Turbo。这是国产大模型首次在该基准上取得如此出色的成绩,让我们看到了通义千问能力持续进化的巨大潜力。

胖虎也自己测试了一些逻辑方面的问题,很明显,这次升级之后,逻辑处理上更加完善了。

接下来咱们就问几个弱智吧的经典问题,看看通义千问答得咋样。

问题1:晾干1件衣服需要5小时,那么晾30件衣服需要多久

图片[2]-通义千问,杀疯了!-JieYingAI捷鹰AI

问题2:鲁迅为什么不喜欢周树人

图片[3]-通义千问,杀疯了!-JieYingAI捷鹰AI

而同样的问题,试着去问ChatGPT,给出的答案就显得有点人工智障

图片[4]-通义千问,杀疯了!-JieYingAI捷鹰AI

作为开发人员,平时无论改bug,或者写代码,不夸张的说,完全可以取代搜索引擎,因为直接就可以给出我们答案,完全不需要再取从一个个网页中去筛选。

图片[5]-通义千问,杀疯了!-JieYingAI捷鹰AI

图片[6]-通义千问,杀疯了!-JieYingAI捷鹰AI

对于开发者,如何更高效的使用AI大模型呢?在5月21号,阿里云在武汉AI智领者峰会上宣布,旗下9款通义商业化及开源系列模型大幅降价。其中,通义千问的主力模型Qwen-Long,甚至直接降了97%。从0.02元/千tokens降至0.0005元/千tokens。不得不说,AI大模型的价格实在越来越卷了,也就是说1块钱可以买到200万tokens,约等于5本新华字典的文字量。

可能有些小伙伴还不太了解Qwen-Long,它是通义千问的长文本增强模型,最多支持1千万tokens的长文本输入。虽说性能对标的是ChatGPT4,但是降价后的价格只为GPT4的 400分之一。

这么大幅度的降价,似乎也超过了一般商业竞争的逻辑。阿里云刘伟光表示“作为中国第一大云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。” 在4月末的时候,中国工程院院士孙宁辉在人大常委会专题讲座中曾指出阻碍AI在国内发展的其中一个原因就是成本居高不下。这样看来,此次降价确实是个利好的消息,对各行业都有一定的促进作用。

那对于我们程序员来说有什么用呢,假设我现在需要私有化部署开源模型,需要考虑的在成本有,硬件、网络、电费以及硬件的折损费用。

我粗略的算了一笔账。比如自建一个个人开发的服务器。硬件选型如下

GPU: 1 * A10(24GB显存)

CPU: Intel Xeon

RAM: 64GB

SSD: 2T PCIE 4.0

主板 + 网卡

粗略算了一下成本,GPU 2万,其余硬件也差不多要1万。这就3万块钱了。另外日常开销,保守点算,国民用电0.5元/度,服务器闲置时的功耗60W,满载功耗300W。假设一天满载4小时,闲置16小时,用电量大概72度,也就是36元。网络费用每个月还需要200元。

如果出现计算资源闲置或者超载还需要支付额外的费用。硬件成本平摊到每个月,保守点费用都要在五六百了。

而现在通义千问大降价,我就在想,完全可以通过云上调用大模型API的方式。这样不需要购买硬件,而且可以随去随用,按需使用。使用起来也方便了不少,最主要的还节省了成本。

另外胖虎还粗略的算了一笔账

假设调用API,一般用户每天消耗540 W 的input tokens和54W的 out tokens(根据微软splitwise paper中提供的数据,input tokens和output tokens的数量比估计为10:1)

那每个月的费用在,540W*30/100W + 54W / * 30/50W = 194.4元,相比于自建服务器 确实节省了不少成本。

这样只是算个人场景的,如果是公司或者大模型创业公司来说,他们的硬件成本只会更高,这样算下来,节省的费用只会更高!

从实际测试来看,即便是同样的开源模型,在公共云上的调用价格也远远低于私有化部署。以使用Qwen-72B开源模型、每月1亿tokens用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超1万元。

AI大模型,作为程序员可能听的比较多。但是实际应用场景要远比想象的复杂。性能足够,但是效果未必好。而效果要想好又需要更高的成本。这样看来,模型的效果、性能、成本这三个要素很难达到理想的效果。而阿里云的通义千问在这方面属于领军地位。

通义大模型通过阿里云服务企业超过9万,通过钉钉服务企业超过 220 万,已经在PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮等多个领域落地应用。最近一项成就是5月9日,小米的人工智能助手小艾同学已与通义千问达成合作,并且在小米汽车、手机等设备得到应用,其他像微博、众安保险、完美世界等企业也同样先后宣布接入通义大模型。

整体来看,降低成本是推动大模型快进到“价值创造阶段”的关键要素,更低的成本价格才能真正满足企业的复杂业务场景需求,充分验证大模型的应用价值。

© 版权声明
THE END
喜欢就支持一下吧
点赞0 分享
People are not just to love and live.
人不是仅仅为了爱而生存的