5月21日,阿里云宣布大幅调降旗下商业化及开源系列大模型的API输入价格,其中通义千问GPT-4级主力模型QWEN-LONG降幅高达97%,从每千TOKENS 0.02元降至0.0005元。
这意味着,只需1元钱,即可购买200万个TOKENS,相当于新华字典中5本书的文字量。即使最高支持1,000万个TOKENS的长文本输入,降价后的QWEN-LONG价格也仅为GPT-4的1/400。
本次降价涵盖通义千问的9款商业化及开源模型,包括前不久发布的旗舰款大模型QWEN-MAX,其API输入价格也降低了67%,至每千TOKENS 0.04元。
业内普遍认为,随着大模型性能的不断提升,AI应用创新进入了密集探索期。高昂的推理成本仍然是限制大模型规模化应用的关键因素。
阿里云智能集团资深副总裁兼公共云事业部总裁刘伟光表示:“阿里云大幅降低大模型推理价格,旨在加速AI应用的爆发,我们预计未来大模型API的调用量将呈成千上万倍的增长。”
刘伟光认为,无论开源还是商业化模型,“公共云+API”将成为企业使用大模型的主流模式,原因有三:
1. 公共云拥有技术红利和规模效应,带来巨大的成本和性能优势。阿里云基于自主研发的异构芯片互联核心技术和产品,构建了高弹性的AI算力调度系统,显著降低模型推理成本,提升推理速度。
2. 云上可更便捷地调用多模型,并提供企业级的数据安全保障。阿里云可为每个企业提供专属的虚拟私有云(VPC)环境,实现计算、存储、网络隔离和数据加密,确保数据安全。
3. 云厂商天然具备开放性,可为开发者提供丰富的模型和工具链。阿里云百炼平台汇集了通义、百川、CHATGLM和LL湘西系列等上百款国内外优质模型,内置大模型定制和应用开发工具链,开发者可轻松对比不同模型、开发专属大模型,并构建大模型内化吸收知识的过程(RAG)等应用。