本文最后由 Demo Marco 更新于 2025-02-13. 如有资源已失效,请留言反馈,将会及时处理。 【推荐:不翻墙访问被墙网站方法 | 自用高速专线机场 | 高速CN2线路 | 高质量家宽住宅IP】
AI大模型API汇总
大模型 | 免费限制 | 文档地址 |
---|---|---|
讯飞星火大模型 | tokens:总量无限 QPS:2 有效期:不限 | 文档查看 |
百度千帆大模型平台 | Lite、Speed-8 K:RPM = 300,TPM = 300000 Speed-128 K:RPM = 60,TPM = 300000 | 文档查看55 |
腾讯混元大模型 | 限制并发数为 5 路 | 链接 |
Cloudflare Workers AI | 免费可以每天使用 1 万 token, 每天 UTC 0 点更新 | 文档查看 |
字节扣子 | QPS (每秒发送的请求数):2 QPM (每分钟发送的请求数):60 QPD (每天发送的请求数):3000 | 文档查看 |
字节火山方舟 | 每个模型送 50 w tokens | 文档查看 |
Llama Family | 1. 每天 8-22 点:接口限速每分钟 20 次并发 2. 每天 22-次日 8 点:接口限速每分钟 50 次并发 | 文档查看 |
Groq | rpm 为 30,rpd 为 14400,TOKENS PER MINUTE 也有限制 | 文档查看 |
Zhipu (智谱) | tokens:总量无限 QPS:2 有效期:不限 图像大小上传限制为每张图像 5 M 以下,且像素不超过 6000*6000。 支持 jpg、png、jpeg 格式。 | 文档查看 |
SiliconCloud | RPM 限制为 100,QPS 限制为 3,支持 deepseek-v3 / deepseek-r1 | 文档查看 |
01 万物 | RPM 限制为 4,单模型 TPM 32000~200000,充值可解锁更多,注册赠送 36 元,有 36 M 可用 token | 文档查看 |
Google Gemini | 15 RPM(每分钟请求数); 100 万 TPM(每分钟令牌); 1500 RPD(每天请求数) | 链接 |
GLHF【开始收费】 | 使用 vLLM 和定制的自动扩展 GPU 调度程序来运行(几乎)任何开源大型语言模型:只需粘贴指向 Hugging Face 存储库的链接即可。可以使用我们的聊天 UI 或兼容 OpenAI 的 API。最多允许使用 8 个 Nvidia H 100 80 Gb GPU | API |
1. 讯飞星火大模型:小火苗也有大能量
- 模型名字: 讯飞星火大模型
- 可用的模型: spark-lite ( 别看它叫 lite,能量可不小!)
- 免费限制: 这小火苗可是相当给力,tokens 使用总量无限,每秒还能处理 2 个请求,而且永久有效!简直是业界良心啊!
- 访问链接: 控制台传送门
- 文档地址: 说明书在这里
2. 百度千帆大模型平台:模型多到挑花眼
- 模型名字: 百度千帆大模型平台
- 可用的模型: yi_34 b_chat, ERNIE-Speed-8 K, ERNIE-Speed-128 K, ERNIE-Lite-8 K, ERNIE-Lite-8 K-0922, ERNIE-Tiny-8 K(这么多选择,够你玩一阵子了!)
- 免费限制: Lite 和 Speed-8 K 模型每分钟可以处理 300 个请求,以及 300,000 个 tokens;Speed-128 K 模型则稍微“矜持”一点,每分钟 60 个请求和 300,000 个 tokens。
- 访问链接: 控制台入口
- 文档地址: 详细教程请看这里
3. 腾讯混元大模型:混元出击,势不可挡
4. Cloudflare Workers AI:全球加速,AI 也飞起来
- 模型名字: Cloudflare Workers AI
- 可用的模型: 所有模型(没错,全部免费!Cloudflare 大佬真是豪气!)
- 免费限制: 每天可以使用 1 万个 tokens,每天 UTC 时间 0 点更新额度。
- 访问链接: 控制台入口
- 文档地址: 官方文档请戳这里
5. 字节扣子:百变扣子,无限可能
- 模型名字: 字节扣子
- 可用的模型: 豆包·Function call 模型 (32 K)、通义千问-Max (8 K)、MiniMax 6.5 s (245 K)、Moonshot(8 K)、Moonshot(32 K)、Moonshot(128 K)(模型选择多多,玩转 AI 不在话下!)
- 免费限制: API 免费用,但每个空间的使用限制是:每秒 2 个请求,每分钟 60 个请求,每天 3000 个请求。
- 访问链接: 控制台入口
- 文档地址: 开发指南拿走不谢
6. 字节火山方舟:模型任你挑,计费更灵活!
- 模型名字: 字节火山方舟
- 可用的模型: 火山方舟现在提供了丰富的模型选择,包括豆包系列 (Doubao-lite 和 Doubao-pro,分别有 4K, 32K, 128K 和 256K 上下文长度)、智谱 AI 的 GLM3-130B 系列以及月之暗面的 Moonshot 系列。还有 Mistral AI 的开源模型 Mistral-7B。真是琳琅满目,总有一款适合你!
- 免费限制: 现在火山方舟的计费方式更清晰啦!所有模型都按 token 使用量(包括输入和输出文本)计费,每小时出账,按量后付费。不过别担心,每个模型都给你准备了 50 万 token 的免费额度!够你先玩一阵子了。
- 访问链接: 控制台传送门
- 文档地址: 详细说明在这里
7. Llama Family:羊驼家族,实力不俗
- 模型名字: Llama Family
- 可用的模型: “Atom-13 B-Chat”, “Atom-7 B-Chat”, “Atom-1 B-Chat”, “Llama 3-Chinese-8 B-Instruct”(羊驼家族来袭,快来体验!)
- 免费限制: 每天早上 8 点到晚上 10 点,每分钟 20 个请求;晚上 10 点到第二天早上 8 点,每分钟 50 个请求。
- 访问链接: 控制台通道
- 文档地址: 文档在此
8. Groq:性能怪兽,速度惊人
- 模型名字: Groq
- 可用的模型: “gemma-7 b-it、mixtral-8 x 7 b-32768、llama 3-70 b-8192、llama 3-8 b-8192”(速度与激情,Groq 给你带来极致体验!)
- 免费限制: 每分钟 30 个请求,每天 14400 个请求,每分钟使用的 tokens 数量有限制。
- 访问链接: 控制台密钥
- 文档地址: 使用手册
9. Zhipu (智谱):清华出品,必属精品
- 模型名字: Zhipu (智谱)
- 可用的模型: GLM-4-Flash,GLM-4 V-Flash(清华出品,质量保证!)
- 免费限制: GLM-4-Flash:tokens 使用总量无限,每秒 2 个请求,永久有效。GLM-4 V-Flash:图像大小限制为 5 M,像素不超过 6000*6000,支持 jpg、png 和 jpeg 格式。
- 访问链接: 控制台入口
- 文档地址: 使用指南
10. SiliconCloud:硅云起飞,AI 加速
- 模型名字: SiliconCloud
- 可用的模型: “Qwen 2.5(7 B)、Llama 3.1(8 B)等”(云端模型,即开即用!)
- 免费限制: 每分钟 100 个请求,每秒 3 个请求,如需更多,可以申请。
- 访问链接: 控制台入口
- 文档地址: 官方文档
11. 01 万物:万物互联,AI 驱动
- 模型名字: 01 万物
- 可用的模型: yi-lightning / yi-large / yi-large-rag/yi-large-fc/yi-medium / yi-spark/yi-medium-200 k/yi-vision/yi-large-turbo(模型种类丰富,总有一款适合你!)
- 免费限制: 每分钟 4 个请求,每个模型每分钟使用的 tokens 数量为 32000 到 200000,充值可解锁更多,注册送 36 元,相当于 36 M 可用 tokens。
- 访问链接: 控制台入口
- 文档地址: API 参考
12. Google Gemini:谷歌出品,必属精品
- 模型名字: Google Gemini
- 可用的模型: gemini-1.5-pro、gemini-1.5-flash、gemini-1.0-pro、gemini-pro-vision、gemini-2.0-flash-exp、gemini-2.0-flash-thinking-exp-1219 (谷歌出品,必属精品!)
- 免费限制: 每分钟 15 个请求,每分钟 100 万个 tokens,每天 1500 个请求。
- 访问链接: 控制台入口
- 文档地址: API 说明
13. GLHF:开源大模型,任你选择
- 模型名字: GLHF
- 可用的模型: Meta Llama 3.1 405 b Instruct (and 70 b, and 8 b), Qwen 2 72 b, Mixtral 8 x 22 b, Gemma 2 27 b, Jamba 1.5 Mini (support for the Jamba 1.5 Large is in the works), Phi-3 (开源大模型,任你选择!)
- 免费限制: 使用 vLLM 和定制的自动扩展 GPU 调度程序来运行(几乎)任何开源大型语言模型:只需粘贴指向 Hugging Face 存储库的链接即可。可以使用我们的聊天 UI 或兼容 OpenAI 的 API。最多允许使用 8 个 Nvidia H 100 80 Gb GPU。
- 访问链接: API
- 文档地址: API
好啦!以上就是这次免费全部内容,希望大家都能找到适合自己的 AI 模型,开启愉快的探索之旅!记得多多分享给身边的朋友哦!
1 comment
This website offers a fantastic resource for exploring various AI models. The detailed descriptions and applications are really helpful for anyone looking to understand the capabilities of each model. Great job on providing such valuable information!