外观
一文说清腾讯云 TokenHub
腾讯云 TokenHub 模型广场汇聚了多家顶尖 AI 厂商的前沿模型,涵盖语言、视觉、多模态理解等方向,为开发者提供一站式的模型调用体验。
大模型服务平台 TokenHub 致力于为企业和开发者提供统一的大模型服务入口,整合腾讯自研的混元大模型能力,并引入优质第三方模型,覆盖通用对话、深度推理、代码生成、视觉理解、图像生成、视频生成等多类场景。平台支持按量调用、保障型资源、专属部署等多种服务模式,帮助企业简单、高效地获取 AI 算力。
重点推荐
以下两款模型是当前阶段的重点推荐,分别代表了不同场景下的顶尖体验。
Hy3 preview · 混元
能力: 深度思考 文本生成
混元 Hy3 preview 面向 Agent 工作负载设计,采用 295B/21B 激活的 MoE 架构。在同一个模型内提供 no_think(极速响应)、think_low(快速思考)、think_high(深度推理)三档模式,适配从高频交互到复杂工程任务的不同延迟与深度需求。在 SWE-bench Verified 等代码基准上接近当前最强水平,256K 上下文支持跨文件代码重构与长文档分析。适合需要可靠任务完成度、同时对推理成本敏感的开发者。
DeepSeek-V4-Flash · DeepSeek
能力: 文本生成 深度思考
DeepSeek-V4-Flash 专为高并发与低延迟设计的生产级利器,以 1M 上下文为全系标配,在极低成本下实现了媲美旗舰的推理表现与卓越的 Agent 响应效率。
全部模型
语言模型
| 模型 | 厂商 | 能力 | 介绍 |
|---|---|---|---|
| Hy3 preview | 混元 | 深度思考文本生成 | 面向 Agent 工作负载设计,MoE 架构三档思考模式,256K 上下文,SWE-bench 代码基准接近最强水平。 |
| DeepSeek-V4-Pro | DeepSeek | 文本生成深度思考 | 1.6T 参数原生多模态旗舰,CSA+HCA 混合注意力架构,复杂数学推理、长程代码工程及 Agent 协作代表行业顶尖水平。 |
| DeepSeek-V4-Flash | DeepSeek | 文本生成深度思考 | 高并发低延迟生产级利器,1M 上下文标配,极低成本实现旗舰级推理与卓越 Agent 响应效率。 |
| HY 2.0 Instruct | 混元 | 文本生成 | 基础能力全面升级,知识、数学、写作与推理达一线水准,指令遵循与长文理解表现优异。 |
| HY 2.0 Think | 混元 | 深度思考文本生成 | 擅长文创、多轮、指令遵循实用场景,数理、代码、Agent 能力显著增强。 |
| Hunyuan-role | 混元 | 角色扮演文本生成 | 针对角色扮演场景,人设高度贴合、极致拟人口语化,具有吸引力的剧情演绎与情感陪伴。 |
| GLM-5.1 | 智谱 AI | 文本生成深度思考 | 智谱最新旗舰,代码能力大幅增强,支持长达 8 小时自主连续工作,整体对齐 Claude Opus 4.6,构建 Autonomous Agent 的理想基座。 |
| GLM-5V-Turbo | 智谱 AI | 多模态理解文本生成深度思考 | 智谱首个多模态 Coding 基座,原生处理图片/视频/文本,深度适配 Agent 工作流,可与 Claude Code 等 Agent 深度协同。 |
| GLM-5 | 智谱 AI | 深度思考文本生成 | 新一代旗舰基座,面向 Agentic Engineering,擅长复杂系统工程、长程 Agent 任务,Coding 与 Agent 能力开源 SOTA。 |
| Kimi K2.6 | 月之暗面 | 多模态理解文本生成深度思考 | Kimi 最新开源模型,行业领先的代码、长程任务执行与 Agent 集群能力,多语言泛化能力卓越。 |
| MiniMax-M2.7 | MiniMax | 文本生成深度思考 | 自我进化大语言模型,卓越软件工程与专业办公能力,支持复杂 Agent 交互与端到端项目交付。 |
| Kimi K2.5 | 月之暗面 | 文本生成深度思考 | Kimi 迄今最全能模型,原生多模态架构,支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。 |
| GLM-5-Turbo | 智谱 AI | 文本生成深度思考 | 针对真实 Agent 长链路任务深度优化,重点提升复杂指令拆解、工具调用与长任务稳定性。 |
| MiniMax-M2.5 | MiniMax | 深度思考文本生成 | 编程、工具调用、搜索与办公生产力场景均达到或刷新行业 SOTA。 |
| Deepseek-v3.2 | DeepSeek | 深度思考文本生成 | 685B 参数 MoE 模型,稀疏注意力架构长文本处理更高效,推理评测达 GPT-5 水平。 |
| Deepseek-v3.1 | DeepSeek | 深度思考文本生成 | 685B 参数 MoE 模型,优化语言一致性与 Agent 能力,输出效果相比前一版本更加稳定。 |
| Deepseek-r1-0528 | DeepSeek | 深度思考文本生成 | 671B 模型,架构优化与训练策略升级,代码生成、长文本处理与复杂推理显著提升。 |
| Deepseek-v3-0324 | DeepSeek | 文本生成 | 671B 参数 MoE 模型,编程与技术能力、上下文理解与长文本处理优势突出。 |
视觉模型
| 模型 | 厂商 | 能力 | 介绍 |
|---|---|---|---|
| HY-3D-3.1 | 混元 | 文生3D图生3D | 支持文生3D、图生3D、八视图生3D、单几何生成(白模)、草图生3D、智能拓扑生3D,精度与质量更高。 |
| HY-3D-3.0 | 混元 | 文生3D图生3D | 支持文生3D、图生3D、多视图生3D、单几何生成(白模)、草图生3D、智能拓扑生3D。 |
| HY-Image-V3.0 | 混元 | 文生图图生图 | 能思考图像布局与构图,解析千字级复杂语义,支持长文本文字、复杂漫画、表情包及科普插画生成。 |
| HY-Video-1.5 | 混元 | 文生视频图生视频 | 支持文本/图像多模态输入生成高清视频,可实现场景切换与多角色交互,适用于企业广告营销与个人创意场景。 |
| HY-Image-Lite | 混元 | 文生图 | 超高压缩编解码器,快速响应与高品质输出,适用于电商商品图美化、素材生成、游戏场景迭代。 |
| YT-Video-2.0 | 优图 | 图生视频 | 生成动态连贯性高的视频,适用于高要求广告、影视片段与产品展示视频场景。 |
| YT-Video-HumanActor | 优图 | 图生视频 | 单张参考照片驱动生成动态人像视频,精准还原表情与姿态,支持写实、二次元等多风格切换。 |
| YT-Video-FX | 优图 | 图生视频 | 上传图片并选择特效模板,将静态图像转化为充满动感与活力的特效视频。 |
| HY-3D-Express | 混元 | 文生3D图生3D | 混元生3D 极速版,生成时间缩短至 1 分 30 秒内,快速输出 3D 模型文件。 |
多模态理解模型
| 模型 | 厂商 | 能力 | 介绍 |
|---|---|---|---|
| YT-VITA | 优图 | 视觉理解多模态理解文本生成 | 多模态理解模型,支持对视频和图片内容进行分析,可用于视频结构解析、图像目标检测等场景。 |
能力说明
深度思考:模型在生成最终回答前,先进行内部思维链(Chain-of-Thought)推理,通过逐步分析和拆解问题,提升复杂任务(如数学、逻辑推理、代码生成等)的回答准确性。
联网搜索:模型支持在推理过程中访问互联网,检索并整合实时信息,从而为时效性问题(如新闻、天气、最新数据等)提供更准确的回答。
结构化输出:模型支持按照指定的格式(如 JSON Schema)输出结构化数据,便于下游程序直接解析和使用,适用于信息抽取、数据填充、API 响应构建等场景。
Function Calling:模型支持函数调用能力,可在推理过程中根据用户意图自动识别并触发预定义的外部工具或 API,实现查询数据库、调用第三方服务等扩展操作。
Cache 缓存:模型 Cache 缓存能力可复用历史请求中的上下文计算结果,减少重复计算开销,从而提升响应速度并降低调用成本。
快速上手
步骤一:登录 TokenHub 控制台
登录腾讯云大模型服务平台 TokenHub 控制台,按照界面提示开通服务后,可在模型广场浏览并选择模型,详细模型信息可参见模型列表。
步骤二:领取免费体验包
平台为新用户提供一定额度的免费体验额度,让您零成本试用模型。各模型免费体验额度信息可参见新人免费体验包,具体免费额度及有效期请以控制台显示为准。
领取方式:
- 进入模型广场页面,单击右上角的「新用户福利免费体验」。
- 在弹窗中勾选模型后,单击「立即领取」,即可获得多个模型的免费使用额度。
步骤三:创建 API Key
在调用模型 API 之前,需要先创建 API Key 作为鉴权凭证。
- 进入 API Key 管理页面。
- 在页面上方选择地域后,单击「创建 API Key」。
- 填写 Key 名称,并设置可访问范围:
- 全选:可访问当前账号下所有模型和推理服务。
- 限定范围:指定可访问的模型和/或推理服务,实现访问范围控制。
- 单击「确定」完成创建。
创建完成后,请务必复制并妥善保管 API Key,后续调用 API 时将会使用该信息。
步骤四:通过 API 调用模型
TokenHub 兼容 OpenAI API 协议,可使用熟悉的 SDK 和工具直接接入。
请将示例代码中的
YOUR_API_KEY替换为真实的 API Key,并修改model字段为需要调用的模型名称。
CURL
curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \
-H 'Authorization: Bearer YOUR_API_KEY' \
-H 'Content-Type: application/json' \
-d '{
"model": "deepseek-v3",
"messages": [{"role": "user", "content": "你好"}],
"stream": true
}'Python
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://tokenhub.tencentmaas.com/v1"
)
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "你好,请介绍一下你自己"}
]
)
print(response.choices[0].message.content)Node.js
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "YOUR_API_KEY",
baseURL: "https://tokenhub.tencentmaas.com/v1",
});
async function main() {
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "你好,请介绍一下你自己" },
],
});
console.log(response.choices[0].message.content);
}
main();Java
import java.net.http.*;
import java.net.URI;
public class MaaSExample {
public static void main(String[] args) throws Exception {
String apiKey = "YOUR_API_KEY";
String body = """
{
"model": "deepseek-v3",
"messages": [{"role": "user", "content": "你好"}]
}
""";
HttpRequest request = HttpRequest.newBuilder()
.uri(URI.create("https://tokenhub.tencentmaas.com/v1/chat/completions"))
.header("Authorization", "Bearer " + apiKey)
.header("Content-Type", "application/json")
.POST(HttpRequest.BodyPublishers.ofString(body))
.build();
HttpClient client = HttpClient.newHttpClient();
HttpResponse<String> response = client.send(request,
HttpResponse.BodyHandlers.ofString());
System.out.println(response.body());
}
}Go
package main
import (
"bytes"
"encoding/json"
"fmt"
"io"
"net/http"
)
func main() {
apiKey := "YOUR_API_KEY"
body := map[string]interface{}{
"model": "deepseek-v3",
"messages": []map[string]string{
{"role": "user", "content": "你好"},
},
}
jsonBody, _ := json.Marshal(body)
req, _ := http.NewRequest("POST",
"https://tokenhub.tencentmaas.com/v1/chat/completions",
bytes.NewBuffer(jsonBody))
req.Header.Set("Authorization", "Bearer "+apiKey)
req.Header.Set("Content-Type", "application/json")
resp, err := http.DefaultClient.Do(req)
if err != nil {
panic(err)
}
defer resp.Body.Close()
result, _ := io.ReadAll(resp.Body)
fmt.Println(string(result))
}参考资料
TokenHub 产品迭代较快,本文内容可能存在疏漏或滞后,最新模型列表与功能说明请以腾讯云官方网站为准。
- 腾讯云 TokenHub 模型广场:https://console.cloud.tencent.com/tokenhub/models
- 腾讯云 TokenHub 模型列表:https://cloud.tencent.com/document/product/1823/130051
文中模型列表、能力标签、功能描述等内容以官方网站显示为准。