tencent cloud

模型列表

Download
聚焦模式
字号
最后更新时间: 2026-05-13 14:42:32

语言模型

模型名称
model(调用参数)
能力支持
上下文窗口
(Token)
最大输入
(Token)
最大输出
(Token)
DeepSeek-V4-Flash
deepseek-v4-flash
深度思考
结构化输出
Function Calling
Cache 缓存
1M
1M
384k
DeepSeek-V4-Pro
deepseek-v4-pro
深度思考
结构化输出
Function Calling
Cache 缓存
1M
1M
384k
Deepseek-v3.2
deepseek-v3.2
深度思考
结构化输出
Function Calling
128k
96k
32k
GLM-5
glm-5
深度思考
Function Calling
Cache 缓存
200k
200k
128k
GLM-5-Turbo
glm-5-turbo
深度思考
结构化输出
Function Calling
Cache 缓存
200k
200k
128k
GLM-5V-Turbo
glm-5v-turbo
深度思考
结构化输出
Function Calling
Cache 缓存
200k
200k
128k
GLM-5.1
glm-5.1
深度思考
结构化输出
Function Calling
Cache 缓存
200k
200k
128k
Kimi-K2.6
kimi-k2.6
深度思考
结构化输出
Function Calling
Cache 缓存
256k
256k
256k
Kimi-K2.5
kimi-k2.5
深度思考
结构化输出
Function Calling
Cache 缓存
256k
224k
16k
MiniMax-M2.5
minimax-m2.5
深度思考
Function Calling
Cache 缓存
200k
200k
128k
MiniMax-M2.7
minimax-m2.7
深度思考
Function Calling
Cache 缓存
200k
200k
128k

能力说明

深度思考

模型在生成最终回答前,先进行内部思维链(Chain-of-Thought)推理,通过逐步分析和拆解问题,提升复杂任务(如数学、逻辑推理、代码生成等)的回答准确性。

结构化输出

模型支持按照指定的格式(如 JSON Schema)输出结构化数据,便于下游程序直接解析和使用,适用于信息抽取、数据填充、API 响应构建等场景。

Function Calling

模型支持函数调用能力,可在推理过程中根据用户意图自动识别并触发预定义的外部工具或 API,实现查询数据库、调用第三方服务等扩展操作。

Cache 缓存

模型 Cache 缓存能力可复用历史请求中的上下文计算结果,减少重复计算开销,从而提升响应速度并降低调用成本。


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈