我整理了几家大厂的模型服务的地址、文档和基本介绍,方便大家可以使用和参考。
当然还有其他一些厂商提供了通用的模型服务或自家的模型服务,就不一一介绍了,未来模型服务最终会集中到几家大厂手里。
deepseek 官方服务
官方网站上的操作还是很简洁的,不像有些云服务商搞得人晕头转向。你可以很方便的充值和创建API key。
我年初的时候充了10块钱,现在还剩8块多。

它提供了OPENAI兼容的API, 所以下面三个信息非常关键:
- base_url: https://api.deepseek.com 或者 https://api.deepseek.com/v1
- api_key: 充钱后就可以自由的创建key, key就像密码一样,注意安全的保存,或者设置在环境变量中
- model: 选择要使用的模型,
deepseek-chat非思考模式,eepseek-reasoner思考模式,目前这两个都升级到了DeepSeek-V3.2-Exp
你可以使用curl测试:
|
|
阿里云百炼平台
- 官方入口:https://bailian.console.aliyun.com/
- 官方文档:https://help.aliyun.com/zh/model-studio/what-is-model-studio
据官方介绍,自2025年9月8日11点起,首次开通阿里云百炼的用户,获赠的新人免费额度有效期调整为 90 天,可以领取7000万的额度(应该是每个模型一定额度,总共7000万额度)。
你可以在模型广场挑选你关注的模型,比如我想使用阿里服务的deepseek的模型,那么就在输入框中输入deepseek。后续我们都以deepseek的模型为例。
注意哈,这些云服务商除了提供自己家的大模型外,还会提供流行的开源的大模型服务。比如大家都会提供 deepseek的模型服务。
所以你要使用deepseek模型,不一定到deepseek官方去购买,也可以在其他云服务厂商购买。
我觉得阿里云这个模型的介绍还是非常的简洁的:
- 第一行就把模型code名列出来了,还有一个贴心的复制按钮,比下面要介绍的厂商贴心多了
- 模型的能力罗列的很清楚
- 免费的额度很清晰的罗列出来
- 限流和上下文明明白白的列出来了,对开发者很友好
- 代码示例在本页中就列出来了,方便复制和测试
你可以使用curl调用:
|
|
模型的费用统一在阿里云的账户充值即可。我充值了10元。因为免费额度都没有用完,所以资金还没有动。后续要多用用阿里云的模型服务了,先把免费额度用光了,否则就过期了。
首先你得创建API Key:
它也提供了OPENAI兼容的API, 所以下面三个信息非常关键:
- base_url: https://dashscope.aliyuncs.com/compatible-mode/v1 (新加坡区域使用 - https://dashscope-intl.aliyuncs.com/compatible-mode/v1)
- api_key: 上面我们创建的key
- model: 选择要使用的模型,deepseek的模型很多,你可以选择
deepseek-v3.2-exp
百度云千帆平台
- 官方入口:https://cloud.baidu.com/product-s/qianfan_home
- 官方文档:https://help.aliyun.com/zh/model-studio/what-is-model-studio
登录后选择 模型服务 -> 模型广场, 搜索deepseek, 可以列出几个百度云服务的deepseek模型。
通过和阿里云百炼平台的对比,我们能看到百度云相对于阿里云,产品的友好型还是差了一截,具体来说:
- 找到模型多了一级:阿里云的『模型广场』直接在左侧最上面,而百度云需要点击『模型服务』,再点击『模型广场』
- 程序员开发用的模型名在哪里?在哪里?在哪里?那个可复制的模型 ID又是啥?又是啥?又是啥?
- 我每次找模型名称,都是在这个页面点击体验,然后再点击代码查看,看请求的示例代码使用的model 名称是啥
- 为啥不在这个页面中类似阿里云那样,把用户最关注的信息罗列在这里。你可以这个页面空空旷旷的,还不得不把行距设的很大,以免显得很空。为啥不在这个页面中增加用户关注的信息呢?比如:
- 模型能力
- 限流和上下文的限制
- 代码示例
你可以在控制台页面进行充值,我冲了10块钱的,才用了一分钱。主要是作为百度一个卑微的员工,还是有一点点进行 AI应用开发的预算的,我在公司基本就是使用公司的账户进行测试和运营了。
当然你使用百度云的服务,首先也得创建API key。这个创建API key页面我也不知道从哪个入口进入的,我都是通过搜索,或者看API文档的某个页面的链接进入进来,我不想吐槽了。
它也提供了OPENAI兼容的API, 所以下面三个信息非常关键:
- base_url: https://qianfan.baidubce.com/v2
- api_key: 上面我们创建的key
- model: 选择要使用的模型,deepseek的模型很多,你可以选择
deepseek-v3
你可以使用curl调用:
|
|
字节火山方舟平台
- 官方入口:https://console.volcengine.com/ark/region:ark+cn-beijing/model
- 官方文档:https://help.aliyun.com/zh/model-studio/what-is-model-studio
直接点击模型广场,会显示一些提供服务的模型,但是有三个个问题,对于deepseek的模型:
- 主界面并没有显示全所有模型,所以我还不得不通过搜索框搜索
- 其实不是一个搜索框,是一个所谓的“火山助手”。不好用,慢,还不如直接给答案。 AI 虽好,但是还没达到智能客服的水准,显示又是右边的窄窄的一个小窗口,小里小气的
- 没有最新的deepseek-v3.2-exp模型,最新的是deepseek-v3.1 v250821版本

但是针对单个模型的介绍,还是可以的。你看上面的图,此模型的特性都有介绍,而且模型的token限制和限流信息,都讲的明明白白的。
模型code name也在最上面显示,也提供了贴心的复制按钮功能。
啊哦,我又发现了它一个不太好的地方。对于deepseek-3.1, 它提供了两个版本的支持,显示在同一个网页中,所以你需要下拉才能注意的,版本之间的信息很不容易区分。
代码示例太粗糙了,只提供了一个方舟的Python SDK的示例,其他语言和curl命令都没有。
|
|
要通过API调用模型服务,你还是需要创建一个API key, 如下图点击创建按钮就可以创建一个API KEY:
充值点击顶栏的费用菜单就可以,充值也很方便:
它也提供了OPENAI兼容的API, 所以下面三个信息非常关键:
- base_url: https://ark.cn-beijing.volces.com/api/v3/
- api_key: 上面我们创建的key
- model: 选择要使用的模型,你可以选择
deepseek-v3-1-250821
字节自己搞了另外一套Responses API, 提供了Python、Go和Java的版本。 你会选择使用么?头得是多铁才会使用这个定制的API, 将自己的应用绑定到固定的厂商?
它的文档是一个通用的文档介绍: https://www.volcengine.com/docs/82379/1399009 ,并不会针对某个模型有单独的介绍和示例。但是好歹在模型的介绍页面有个到文档的API调用的显著的链接呀。我使用它的小助手询问才找到。
openrouter
OpenRouter 可以看成一个大模型API 路由器,目前已经将现有的各种主流的 AI 模型和服务集成到一个统一的接口中,后续还会不断增加新的模型。它允许用户通过简单的配置就能调用不同大模型的能力。
OpenRouter 的主要功能和特点
- 统一接口:提供标准化的 API,不同模型使用一个API即可,只需要选择一下模型的名字,简化了模型的集成和部署过程。
- 多模型支持:目前已经支持几乎所有的主流模型,如 GPT系列、Claude系列、Gemini系列、deepseek等。
- 无需自行部署:各种开源、闭源的模型基本都有,用户无需自建 GPU 服务器部署。
- 成本优化:提供透明的定价机制,帮助用户在性能和成本之间找到最佳平衡点。
- 易于集成:便于与现有系统集成,适合各种应用场景。
- 可白嫖:有免费的模型可以使用,虽然存在一定的调用限制。
它需要绑定信用卡支付,所以我就不使用它了。
我比较痛苦的是登录他的网站首页居然没有 signin 按钮,我都不知道怎么登录进去,还好通过google搜索它的登录页。难懂它针对中国的用户直接屏蔽登录了么?
不管怎么着,我们使用它的服务,首先还是创建个Key:
你可以找模型名带 “free” 的模型,可以免费使用:
它也提供了OPENAI兼容的API, 所以下面三个信息非常关键:
- base_url: https://openrouter.ai/api/v1
- api_key: 上面我们创建的key
- model: 选择要使用的模型,比如免费的
deepseek/deepseek-chat-v3.1:free
你可以使用curl调用:
|
|
gemini
谷歌提供了它的自己的模型服务,大家最熟悉的就是gemini 系列了。
它的文档在 https://ai.google.dev/gemini-api/docs 。

你需要在google ai studio的 api keys在创建你的key。
它的API是自有的格式:
|
|
但是为了便于推广gemini, google提供了openai兼容的API。https://ai.google.dev/gemini-api/docs/openai
所以下面三个信息非常关键:
- base_url: https://generativelanguage.googleapis.com/v1beta/openai/
- api_key: 上面我们创建的key
- model: 选择要使用的模型,比如
gemini-2.0-flash
