2024年5月,各大模型厂商打起了“价格战”,意图拉拢更多开发者参与应用开发和模型落地探索。本仓库用于收集各大云服务厂商的大语言模型服务价格,方便用户对比。价格单位按照输入/输出每百万词元(Token)需要花费的人民币价格进行计算,美元到人民币汇率按最近一年的平均汇率7.2计算。
本仓库只是一个速查表,更详细的信息请参考各个厂商的官方价格文档。例如闲时价格、预付费价格、Batch调用价格等。
由于最近一年不同厂商的免费试用权益变动较多,获得免费权益的门槛变动也多,有效期也短,因此本仓库不收集免费试用权益包信息。
统计模型和平台范围:
- 只选取应用较为广泛,使用的应用数和人数较多,较为典型和具有代表性的模型和平台。以及服务价格较为便宜的平台。
- 由于本速查表主要面向翻译和中英双语应用,对于闭源且不支持中文(例如LLaMa系列)或中文支持较差的模型(例如Gemma-7B、mixtral系列)不会被纳入统计。
- 如果某开源模型在其官方平台已经十分便宜,那第三方平台的价格不会被纳入统计。
- 主要面向企业用户,个人用户难以申请使用的平台和模型不会被纳入统计。
- 在官方出了新模型且新模型性能提升较大,且价格相较旧模型更便宜或者持平的情况下,不再额外统计旧模型。(例如只统计LLaMa3不统计LLaMa2)
- 官方宣布即将被弃用的模型,或者描述为Older/Legacy的模型不会被纳入统计。
- 由于模型太小和/或性能不佳,连一篇完整新闻文章都翻译不下来的模型(例如qwen1.5-0.5b-chat)不会被纳入统计。
统计数据范围:
- 模型提供平台及定价页面
- API调用格式是否兼容OpenAI格式
- 审查情况(要求翻译BBC政治新闻检查是否存在截断和拒绝回复的情况),不统计对暴力、色情、种族主义等内容的审查。
- 价格
API是否兼容OpenAI格式:OpenAI的天然兼容;Azure的有自定义格式,不兼容
审查情况:无审查
价格:
最后更新日期:2025-02-06
模型 | 文本模态输入价格(元/M Tokens) | 文本模态输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
gpt-4o-mini | 1.08(缓存击中则打5折) | 4.32 | 128 | |
gpt-4o-mini-audio-preview | 1.08 | 4.32 | 128 | |
gpt-4o-mini-realtime-preview | 4.32(缓存击中则打5折) | 17.28 | 128 | |
gpt-4o | 18(缓存击中则打5折) | 72 | 128 | |
gpt-4o-audio-preview | 18 | 72 | 128 | |
gpt-4o-realtime-preview | 36(缓存击中则打5折) | 144 | 128 | |
o1 | 108(缓存击中则打5折) | 432 | 200 | o1-preview的上下文窗口大小为128K |
o1-mini | 7.92(缓存击中则打5折) | 31.68 | 128 | |
o3-mini | 7.92(缓存击中则打5折) | 31.68 | 128 | |
gpt-4-turbo | 72 | 216 | 128 | |
gpt-4 | 216 | 432 | 8 | |
gpt-4-32k | 432 | 864 | 32 | |
gpt-3.5-turbo | 3.6 | 10.8 | 16 |
注:只适用于OpenAI官方平台,Azure平台只支持昂贵的全量微调
模型 | 微调训练语料输入价格(元/M Tokens) | 文本模态输入价格(元/M Tokens) | 文本模态输出价格(元/M Tokens) | 备注 |
---|---|---|---|---|
gpt-4o-2024-08-06 | 180 | 27(缓存击中则打5折) | 108 | |
gpt-4o-mini-2024-07-18 | 21.6 | 2.16(缓存击中则打5折) | 8.64 | |
gpt-3.5-turbo | 57.6 | 21.6 | 43.2 |
API是否兼容OpenAI格式:否,自定义格式
审查情况:无审查
价格:
最后更新日期:2025-02-26
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
claude-3.7-sonnet | 21.6 | 108 | 200 | |
claude-3.5-sonnet | 21.6 | 108 | 200 | |
claude-3.5-haiku | 5.76 | 28.8 | 200 | |
claude-3-opus | 108 | 540 | 200 | |
claude-3-sonnet | 21.6 | 108 | 200 | |
claude-3-haiku | 1.8 | 9 | 200 |
注:Claude的提示缓存需要在调用API时显式声明想要缓存的消息,缓存消息的输入价格是普通输入的1.2~1.25倍,但是命中缓存后的输入价格将降至普通输入的1/10。详见文档。
Claude官方平台暂时不支持微调。AWS平台可以,但是费用较贵。
模型提供平台: 谷歌 / openrouter (注:openrouter也是调用的谷歌的API,但是是一个大池子,价格同步谷歌官方)
API是否兼容OpenAI格式:是,见谷歌官方文档
审查情况:无审查
谷歌官方平台随用随付方案价格(注:以下价格中,1.5版本及以下为输入输出在128K以内的情况,超过128K翻倍):
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
gemini-2.0-flash | 0.72(文本/图片/视频模态) / 5.04(音频模态) (命中缓存均打2.5折) | 2.88(文本模态) | 1000 | |
gemini-2.0-flash-lite | 0.54(所有模态) (命中缓存打2.5折) | 2.16(文本模态) | 1000 | |
gemini-1.5-pro | 9(命中缓存打2.5折) | 36 | 2000 | |
gemini-1.5-flash | 0.54 (命中缓存打2.5折) | 2.16 | 1000 | |
gemini-1.5-flash-8B | 0.27 (命中缓存打2.5折) | 1.08 | 1000 | |
gemini-1.0-pro | 3.6 | 10.8 | 32 |
注:Gemini的提示缓存需要在调用API时显式声明,缓存消息另有存储费用(每MTok每小时7.2元,gemini-1.5-flash-8B则为1.8元,gemini-1.5-pro为32.4元)。详见文档。
Gemini微调暂时处于免费试用阶段,推理费用同普通版本。
模型提供平台: 智谱AI
API是否兼容OpenAI格式:兼容,参见文档。
审查情况:平台对API输出有审查,参见审查文档。
价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
GLM-4-Plus | 50 | 50 | 128 | 高智能旗舰 |
GLM-4-Air-0111 | 0.5 | 0.5 | 128 | 高性价比 |
GLM-4-AirX | 10 | 10 | 8 | 高速推理 |
GLM-4-FlashX | 0.1 | 0.1 | 128 | 高速低价 |
GLM-4-Long | 1 | 1 | 1000 | 超长输入 |
GLM-4-Flash | 0 | 0 | 128 | 适用简单任务,速度最快,免费(但有速率限制,最小并发数为5) |
GLM-4V-Flash | 0 | 0 | 128 | 图像理解,免费(但有速率限制,最小并发数为5) |
GLM-4V-Plus-0111 | 4 | 4 | 8 | 图像理解,旗舰 |
GLM-4-Voice | 80 | 80 | 未知 | 语音模型 |
注:
- 由于ChatGLM开源版本商用API较少,计费通常也比GLM-4-Air贵,性能也和GLM-4-Air差不多,所以不统计。
- 高校师生认证后可以获得5折推理优惠。
LoRA微调与使用公有实例推理价格:
模型 | 微调训练语料输入价格(元/M Tokens) | 文本模态输入价格(元/M Tokens) | 文本模态输出价格(元/M Tokens) | 备注 |
---|---|---|---|---|
GLM-4-Air 8k-int8 | 30 | 3 | 3 | |
GLM-4-AirX 8k-int4 | 30 | 30 | 30 | |
GLM-4-Flash / GLM-4-9B 8k-int8 | 25 | 2 | 2 | |
ChatGLM3-6B 8k-int8 | 25 | 2 | 2 |
模型提供平台: deepseek官方开放平台
API是否兼容OpenAI格式:是
审查情况:平台对API输出有审查
价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
deepseek-chat(基于DeepSeek-V3) | 2(缓存命中为0.5) | 8 | 64 | |
deepseek-reasoner(基于DeepSeek-R1) | 4(缓存命中为1) | 16 | 64 |
注:
- 字节火山引擎、硅基流动等定价与deepseek官网大致相同;
- 阿里云的deepseek系列目前处于免费试用阶段未公布价格。
- 百度千帆平台的deepseek系列价格较低,如下:
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
DeepSeek-V3 | 0.8 | 1.6 | 64 | |
DeepSeek-R1 | 2 | 8 | 64 |
deepseek暂未支持微调
模型提供平台: 零一万物大模型开放平台
API是否兼容OpenAI格式:是
审查情况:平台对API输入和输出有审查
价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
yi-lightning | 1 | 1 | 16 | |
yi-vision-v2 | 6 | 6 | 16 |
Yi系列暂未支持微调
模型提供平台: 阿里云 / together.ai / openrouter / siliconflow
API是否兼容OpenAI格式:是,参见阿里云文档;together.ai文档;openrouter文档;siliconflow文档
审查情况:开源模型本身不存在审查;together.ai等境外平台对输入输出无审查;阿里云平台存在审查,见文档
以下价格选自正规云计算平台的相对低的报价,上下文窗口是对应报价支持的大小,不在乎报价的话,有更大的上下文窗口推理服务可选:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
qwq-32b-preview | 0.864 | 1.296 | 33 | 平台:DeepInfra;硅基流动报价1.26元/Mtok |
qwen2.5-72b-instruct | 1 | 1 | 32 | 平台:硅基流动,国产芯片 |
qwen2.5-32b-instruct | 1.26 | 1.26 | 32 | 平台:硅基流动 |
qwen2.5-14b-instruct | 0.7 | 0.7 | 32 | 平台:硅基流动 |
qwen2.5-7b-instruct | 0.35 | 0.35 | 32 | 平台:硅基流动 |
qwen1.5-110b-chat | 7 | 14 | 32 | 平台:阿里云 |
qvq-72b-preview | 1.8 | 3.6 | 128 | 平台:DeepInfra;硅基流动报价9.9元/Mtok |
qwen2.5-vl-72b-instruct | 16 | 48 | 128 | 平台:阿里云 |
qwen2.5-vl-7b-instruct | 2 | 5 | 128 | 平台:阿里云 |
qwen2.5-vl-3b-instruct | 1.2 | 3.6 | 128 | 平台:阿里云 |
qwen2.5-coder-32b-instruct | 0.504 | 1.152 | 32 | 平台:DeepInfra;硅基流动报价1.26元/Mtok |
注:
- qwen2-audio-instruct这款优秀的音频模型至今没有哪个平台有官方报价。
- 微调价格依据平台的不同略有差异。
模型提供平台: 阿里云
API是否兼容OpenAI格式:是,参见文档
审查情况:对输出有审查
价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
qwen-long | 0.5 | 2 | 10000 | |
qwen-turbo | 0.3 | 0.6 | 1000 | |
qwen-plus | 0.8 | 2 | 128 | |
qwen-max | 2.4 | 9.6 | 32 |
模型提供平台: 字节跳动火山引擎
API是否兼容OpenAI格式:否,自定义格式
审查情况:存在,见官方文档错误码,搜索“敏感”
价格:豆包/字节/火山引擎 存在商业诚信问题,无论性价比多高,都不建议使用。详见下面的说明。
2024年年中,字节旗下的火山推出了一个活动:加入协作者计划,同意将对话数据分享给豆包用于模型训练后,就能获得5亿Tokens的推理额度。 当时有不少人,通过工单等形式,同火山的客服确认了,赠送的5亿Tokens的推理额度是「永久使用,没有时间限制」的。 然而,2024年12月,火山突然以短信和站内横幅通知宣布,该计划赠送的5亿Tokens的推理额度只能使用到2024年12月31日,之后就会失效。 不少人发送工单确认了这个消息。 从这个事情可以看出,火山的商业诚信问题值得您留意,一些事先承诺的事情很容易轻易变卦,并且不给用户时间和补偿。 因此不建议使用,否则有可能变得不幸。
本仓库作为受害者之一,不再统计豆包闭源模型的价格。
最后更新日期:2024-12-17
模型提供平台: 百度千帆大模型平台
API是否兼容OpenAI格式:否,自定义格式
审查情况:对输出存在审查。
价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
ERNIE 4.0系列 | 30 | 90 | 8 | |
ERNIE 4.0 Turbo | 20 | 60 | 8~128 | |
ERNIE 3.5系列 | 0.8 | 2 | 8~128 | |
ERNIE Speed系列 | 0 | 0 | 最大128 | |
ERNIE Lite系列 | 0 | 0 | 最大128 | |
ERNIE Tiny系列 | 0 | 0 | 8 |
参见百度官方文档。
模型提供平台: cohere官方平台 / openrouter / Azure
API是否兼容OpenAI格式:官方平台和Azure不兼容,为自定义格式;第三方平台例如openrouter兼容。
审查情况:无审查
(三个平台统一)价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
command-r-plus | 18 | 72 | 128 | |
command-r | 1.08 | 4.32 | 128 | |
command-r7b | 0.27 | 1.08 | 128 |
模型 | 微调训练语料输入价格(元/M Tokens) | 文本模态输入价格(元/M Tokens) | 文本模态输出价格(元/M Tokens) | 备注 |
---|---|---|---|---|
command-r | 21.6 | 2.16 | 8.64 |
模型提供平台: moonshot开放平台
API是否兼容OpenAI格式:是,参见文档
审查情况:未测试,未知
价格:
最后更新日期:2025-02-06
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
moonshot-v1-8k | 12 | 12 | 8k | |
moonshot-v1-32k | 24 | 24 | 32k | |
moonshot-v1-8k-vision-preview | 12 | 12 | 8k | |
moonshot-v1-32k-vision-preview | 24 | 24 | 32k |
注:kimi背后的模型未支持微调。
API是否兼容OpenAI格式:
审查情况:
价格:
最后更新日期:YYYY-MM-DD
模型 | 输入价格(元/M Tokens) | 输出价格(元/M Tokens) | 上下文窗口大小(K) | 备注 |
---|---|---|---|---|
模型 | 微调训练语料输入价格(元/M Tokens) | 文本模态输入价格(元/M Tokens) | 文本模态输出价格(元/M Tokens) | 备注 |
---|
由于看不懂讯飞星火的定价策略和接口调用,故没有收录。 minimaxi也没有收录,因为看不出来有什么优势。