国产 AI 模型集成生态
已经支持、托管或可接入 DeepSeek、Qwen、Kimi、GLM、混元、MiniMax 等国产模型的海外工具与平台。
集成答案
这个版块收录什么?
统一 API 平台
2 个工具开发者工具
1 个工具自托管界面
3 个工具智能体与工作流框架
1 个工具自动化工具
统一 API 平台
按全球用户实际接入国产模型的方式分组。
原生上架
OpenRouter
统一模型 API 市场,已上架 DeepSeek、Qwen 等中国来源模型家族。
适合
适合希望用一个 API 界面测试多个国产模型,而不想分别开通供应商账号的开发者。
使用前核验
模型可用性、价格和路由可能随供应商变化;生产使用前应重新核验具体模型页。
最后核验: 2026-05-16
原生上架
Together AI
云端推理平台,提供托管开源模型,包含常通过 OpenAI 兼容 API 使用的中国来源模型家族。
适合
适合需要托管推理、扩缩容和模型切换,而不想自建基础设施的团队。
使用前核验
应检查每个模型卡的当前可用性、上下文限制、区域和许可证约束。
最后核验: 2026-05-16
原生上架
Fireworks AI
高速托管开源模型推理平台,当前目录中可按模型页核验 DeepSeek、Qwen 等端点。
适合
适合比较国产开源模型低延迟托管推理的工程团队。
使用前核验
应按具体模型确认目录支持,并非所有国产模型家族都适用于每个套餐。
最后核验: 2026-05-16
社区集成
Replicate
模型托管市场,可运行社区和供应商模型端点,其中包括部分国产开源模型。
适合
适合希望快速围绕开源模型端点做 API 实验的原型团队。
使用前核验
社区模型端点在维护、版本新鲜度和许可证清晰度上可能差异较大。
最后核验: 2026-05-16
开发者工具
按全球用户实际接入国产模型的方式分组。
自带 API Key
LiteLLM
OpenAI 兼容代理和 SDK,可将请求路由到 DeepSeek、OpenRouter、Together 等模型后端。
适合
适合希望统一多供应商模型调用,并保留 OpenAI 风格接口的团队。
使用前核验
底层国产模型供应商仍需要有效 Key、计费路径和区域访问。
最后核验: 2026-05-16
自带 API Key
Continue
开源编程助手,可使用 OpenAI 兼容供应商和自定义模型端点,让国产代码模型进入 IDE 工作流测试。
适合
适合在 VS Code 或 JetBrains 工作流中比较国产代码模型的开发者。
使用前核验
模型质量取决于配置的供应商、上下文设置和本地代码库工作流。
最后核验: 2026-05-16
自托管界面
按全球用户实际接入国产模型的方式分组。
自带 API Key
Open WebUI
自托管 AI 聊天界面,可连接 OpenAI 兼容 API 和本地运行时,用于国产开源模型。
适合
适合需要私有聊天界面来测试国产开源模型或供应商 API 的团队。
使用前核验
自托管时,安全、认证和数据保留需要自行负责。
最后核验: 2026-05-16
智能体与工作流框架
按全球用户实际接入国产模型的方式分组。
自带 API Key
Dify
LLM 应用平台,支持供应商集成和自定义 OpenAI 兼容模型,适合国产模型应用工作流。
适合
适合构建 RAG、聊天机器人和智能体应用,并需要切换国产模型供应商的团队。
使用前核验
托管和自托管环境的连接器可用性不同,构建工作流前应确认供应商支持。
最后核验: 2026-05-16
通过模型供应商
LangChain
应用框架,提供模型集成和 OpenAI 兼容客户端路径,可接入国产模型供应商。
适合
适合构建链、智能体和检索工作流,并需要国产模型选项的工程团队。
使用前核验
多数支持按供应商实现,实施前应验证包版本和集成文档。
最后核验: 2026-05-16
通过模型供应商
LlamaIndex
数据和智能体框架,可通过直接连接器或 OpenAI 兼容端点使用国产模型供应商。
适合
适合构建 RAG 和文档工作流,并希望在私有语料上测试国产模型的团队。
使用前核验
应分别确认 embedding、rerank 和聊天模型支持,它们可能来自不同供应商。
最后核验: 2026-05-16
自动化工具
按全球用户实际接入国产模型的方式分组。
自带 API Key
n8n
工作流自动化平台,可通过 HTTP 请求、OpenAI 兼容节点或社区供应商模式调用国产模型 API。
适合
适合运营团队把国产模型调用接入业务自动化,而不必构建完整应用。
使用前核验
当原生节点未暴露所需国产供应商时,应使用明确的 HTTP/API 配置。
最后核验: 2026-05-16