2024-05-22 08:28

阿里云大模型降价不是短期竞争行为,而是长期战略选择

6.3万

文章来源:硅基立场

作者|周一笑


图片来源:由无界AI生成
图片来源:由无界AI生成


今天,国内大模型圈十分热闹,先是阿里云宣布大模型降价,随后国内多家公司跟进、回应,掀起一轮行业的降价潮。

但与国内其它厂商仅下调轻量级模型价格的策略不同,阿里这次一共有9款模型降价,其中性能对标GPT-4的主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。1块钱可以买200万tokens,相当于5本《新华字典》的文字量。

Qwen-Long实力究竟如何?根据官方的信息显示,其不仅性能达到GPT-4级别,还支持最长1000万tokens的超长上下文对话,可轻松处理约1500万字或1.5万页文档,是同级别模型之最。


图片来源:由无界AI生成
图片来源:由无界AI生成


近期,OpenAI的GPT-4o和谷歌的Gemini 1.5 Pro也下调了API价格。不过从性价比上来说阿里云的主力模型仍然具有优势,这次降价也显得诚意十足。

对于云计算厂商来说,没有产品力的降价是没有意义的,大模型基础能力的领先是通义千问降价的底气。自从去年8月宣布“全模态、全尺寸”开源路线以来,通义千问的技术实力已经获得了国际认可。通义千问已被多个国际权威榜单和测试基准认可,还是基于人类偏好评估大模型的开放平台Chatbot Arena中首个上榜并持续在榜的中国大模型,与GPT-4Turbo、Gemini-1.5-Pro等模型处于同一梯队。通义千问从5亿到1100亿参数的全模态、全尺寸的系列模型,也能够满足企业和开发者不同场景下的需求。

可以说阿里云的这次降价真正做到了便宜、量大、又能打。

今年年初,在和比尔·盖茨的播客节目中表示,大模型技术正处于陡峭的成长曲线上,成本也在飞快地下降,大模型门槛的降低是趋势所在。

GPT-4o发布之后,Sam Altman久违的发布了一篇个人博客,宣布了团队的阶段性目标更新:“用最低的价格甚至是免费,将最好的模型提供给世界上所有人”。这句话是代表OpenAI说的,其实也可以认为是代表微软说的。

因为“摩尔定律适用于大模型行业”不会自然发生,更不是单一一家公司能做到的,这需要硬件厂商、大模型厂商和云计算厂商之间的共同努力。如果把大模型行业比作一个庞大的工厂,那么云计算厂商就像是提供电力的公司。没有电力,工厂的机器就无法运转。

同样,没有云计算厂商提供的计算能力和存储资源,大模型的训练和推理就很难进行。没有云计算厂商提供弹性、可扩展、高效的云服务,原生AI应用普及的难度也会大大提高。

价格的降低背后则是大模型结构、训练、推理等成本的持续优化。对于阿里云这样的云厂商来说,能够把API的价格逐步降低,本质上是云计算规模游戏的必然结果。

技术进步带来的性能提升和效率增加,使得云平台能够以较低的成本提供更强大的计算服务。这一点对于大模型领域也不例外。

尤其是考虑到,GPU短缺导致算力的紧缺,如何高效利用算力,公共云服务是一种最直接、便捷的方式。

技术升级带来的是直接成本降低,而规模扩大带来的间接成本分摊。无论是大模型的训练、推理还是AI原生应用开发,阿里云提供的云计算网络和资源池,都随着客户增多,降低了供应链采购成本、研发成本分摊和资源闲置成本,从而提高了整体的成本效益。

以千问72B开源模型为例,根据阿里云的测算,如果每个月1亿token的使用量为例,在阿里云百炼上的调用成本是每月600元人民币,而如果做私有化部署,即使减去成本分摊,每个月成本也需要1万元。

具体来看,阿里云主要从模型和AI基础设施两个层面降低推理成本和性能。阿里云基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建了极致弹性的AI算力调度系统,结合百炼分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。

从阿里云的战略来看,这次大模型的降价实际上可以理解为阿里云公共云降价策略的一种延续。在过去两年,阿里云率先进行了几次大规模降价,一方面进一步提升了国内公共云市场渗透率,另一方面,也带来了新的营收增长空间。更重要的是,阿里云在降价的同时,继续保持着盈利。

依托公共云的领先优势,阿里云大模型的降价,不是打价格战,与“烧钱换市场无关”,更不能与当年云服务厂商“一元中标”抢占市场的历史同日而语。

这不是短期的市场竞争行为,而是长期的战略选择。是阿里云依托“AI驱动、公共云优先”战略所带来的领先身位的一种必然。对于阿里云来说,大模型时代的新机遇不是一场百米冲刺,它需要做的是把这种势能持续下去。

正如阿里云资深副总裁刘伟光所说,这不仅仅是CPU和简单的GPU带来的策略,更多是大规模GPU集群带来算力的基础,包括网络存储背后能力的提升。生成式AI从推理、训练,逐渐走向云端,再一次点燃了公共云的爆发。

“微软+OpenAI”的组合带来了巨大的商业价值潜力,所有云计算巨头都希望找到自己的OpenAI,亚马逊重金押注了Anthropic。阿里也不例外,除了通过投资,集齐了国内五大大模型独角兽之外。阿里还在打造属于自己的ChatGPT:通义千问,当然阿里云不仅仅打造的是阿里云+通义千问的组合,其百炼平台还支持百川、ChatGLM、Llama系列等上百款国内外优质模型,体现了阿里云在大模型时代的开放属性。

对于大模型行业来说,仅仅具有技术的先进性并不能带来应用的落地,如果不能降低大模型的推理成本,任何商业化都将是一种昂贵的尝试,尤其是C端应用,成本可能是个无底洞。

大模型的训练和推理都需要使用GPU或TPU这类专用硬件来加速计算过程,相比之下,许多传统互联网应用的计算需求通常较低。

例如,传统谷歌搜索每点击的成本约为0.2美分,而一次AI搜索,涉及大语言模型的深度分析与精炼总结,成本骤升。Perplexity的大额融资,也可以说明AI搜索是多么烧钱。

极高的估值、巨大的运营成本,如果大模型的使用成本不能进一步降低,无法明确商业化的众多项目都很难维系下去。此前Inflection AI 创始人跑路就是一个例子。

无论是对于企业还是个人开发者,推理成本的降低是大模型应用落地的前提,也是商业化的前提。所以,构建开发者生态,推动大模型应用的爆发,才是阿里云降价的真正意图所在。

当前,以文本为中心的单模态应用还是主流,但随着技术进步,大模型将走向多模态应用,比如图像、语音等更复杂的数据交互处理,这无疑会使得推理市场的体量进一步扩大。就像智能手机的发展,将电话从单一通话工具转变为集娱乐、社交、工作等多功能于一身的设备。

所以只要大模型应用真正爆发,AI推理市场也将迎来爆发,打造了具有基座大模型能力的公共云厂商,通过公共云+API的模式,才能走出新的增长曲线,获取更大的盈利空间。

根据IDC数据,随着人工智能进入大规模落地应用的关键时期,预计到 2026 年,在云端部署的算力当中,推理将占到 62.2%。阿里云认为到今年年底,大模型整个API的市场日均调用量将达到100亿次,这个数字还会增长十倍,一百倍,一千倍。甚至可能让云计算市场整体规模翻倍。

在移动互联网时代,从社交网络到移动支付,创新应用不断涌现,彻底地重塑了现代社会的生活方式和商业格局。像奈飞和米哈游这样的企业从诞生之初就100%在云上,其背后正是公共云作为基础设施的支撑,让企业和开发者无需大规模前期投资就能利用强大的计算资源。

正如云计算为移动互联网的爆发式增长提供了必要的土壤,公共云+大模型API的模式,也将为大模型的爆款应用提供类似的支持和催化作用。从这个角度出发,生成式人工智能时代的杀手级应用,也会是云原生应用。

在这一进程中,公共云厂商需要做的是持续将新技术与原有技术进行重新组织和重新架构,以支撑计算范式和算力格局的转变。

而以阿里云为代表的云计算厂商,通过从底层算力、AI平台再到模型服务的不断创新,同时AI也反哺了云从管理、应用、计算、基础架构能力的提升。这已经让我们看到了公共云在生成式人工智能时代神经网络和启动机器般基石作用的体现。

公共云技术红利的持续释放,为大模型应用的爆发铺平了路,我们将迎来一个大模型无处不在的世界,这可能不需要更多的逻辑推演,那么同理,公共云的AI基础设施也将成为无处不在的存在。当AGI有一天像水电一样廉价、可靠的时候,每个人都会想要使用它,每个人都会离不开它。

本文链接:https://www.aixinzhijie.com/article/6845852
转载请注明文章出处

评论
登录 账号发表你的看法,还没有账号?立即免费 注册
下载
分享
收藏
阅读
评论
点赞
上一篇
下一篇