Skip to content

一文说清腾讯云 TokenHub

约 3433 字大约 11 分钟

AI腾讯云TokenHub大模型

2026-05-10

腾讯云 TokenHub 模型广场汇聚了多家顶尖 AI 厂商的前沿模型,涵盖语言、视觉、多模态理解等方向,为开发者提供一站式的模型调用体验。

大模型服务平台 TokenHub 致力于为企业和开发者提供统一的大模型服务入口,整合腾讯自研的混元大模型能力,并引入优质第三方模型,覆盖通用对话、深度推理、代码生成、视觉理解、图像生成、视频生成等多类场景。平台支持按量调用、保障型资源、专属部署等多种服务模式,帮助企业简单、高效地获取 AI 算力。

重点推荐

以下两款模型是当前阶段的重点推荐,分别代表了不同场景下的顶尖体验。

Hy3 preview · 混元

能力: 深度思考 文本生成

混元 Hy3 preview 面向 Agent 工作负载设计,采用 295B/21B 激活的 MoE 架构。在同一个模型内提供 no_think(极速响应)、think_low(快速思考)、think_high(深度推理)三档模式,适配从高频交互到复杂工程任务的不同延迟与深度需求。在 SWE-bench Verified 等代码基准上接近当前最强水平,256K 上下文支持跨文件代码重构与长文档分析。适合需要可靠任务完成度、同时对推理成本敏感的开发者。

DeepSeek-V4-Flash · DeepSeek

能力: 文本生成 深度思考

DeepSeek-V4-Flash 专为高并发与低延迟设计的生产级利器,以 1M 上下文为全系标配,在极低成本下实现了媲美旗舰的推理表现与卓越的 Agent 响应效率。


全部模型

语言模型

模型厂商能力介绍
Hy3 preview混元深度思考
文本生成
面向 Agent 工作负载设计,MoE 架构三档思考模式,256K 上下文,SWE-bench 代码基准接近最强水平。
DeepSeek-V4-ProDeepSeek文本生成
深度思考
1.6T 参数原生多模态旗舰,CSA+HCA 混合注意力架构,复杂数学推理、长程代码工程及 Agent 协作代表行业顶尖水平。
DeepSeek-V4-FlashDeepSeek文本生成
深度思考
高并发低延迟生产级利器,1M 上下文标配,极低成本实现旗舰级推理与卓越 Agent 响应效率。
HY 2.0 Instruct混元文本生成基础能力全面升级,知识、数学、写作与推理达一线水准,指令遵循与长文理解表现优异。
HY 2.0 Think混元深度思考
文本生成
擅长文创、多轮、指令遵循实用场景,数理、代码、Agent 能力显著增强。
Hunyuan-role混元角色扮演
文本生成
针对角色扮演场景,人设高度贴合、极致拟人口语化,具有吸引力的剧情演绎与情感陪伴。
GLM-5.1智谱 AI文本生成
深度思考
智谱最新旗舰,代码能力大幅增强,支持长达 8 小时自主连续工作,整体对齐 Claude Opus 4.6,构建 Autonomous Agent 的理想基座。
GLM-5V-Turbo智谱 AI多模态理解
文本生成
深度思考
智谱首个多模态 Coding 基座,原生处理图片/视频/文本,深度适配 Agent 工作流,可与 Claude Code 等 Agent 深度协同。
GLM-5智谱 AI深度思考
文本生成
新一代旗舰基座,面向 Agentic Engineering,擅长复杂系统工程、长程 Agent 任务,Coding 与 Agent 能力开源 SOTA。
Kimi K2.6月之暗面多模态理解
文本生成
深度思考
Kimi 最新开源模型,行业领先的代码、长程任务执行与 Agent 集群能力,多语言泛化能力卓越。
MiniMax-M2.7MiniMax文本生成
深度思考
自我进化大语言模型,卓越软件工程与专业办公能力,支持复杂 Agent 交互与端到端项目交付。
Kimi K2.5月之暗面文本生成
深度思考
Kimi 迄今最全能模型,原生多模态架构,支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。
GLM-5-Turbo智谱 AI文本生成
深度思考
针对真实 Agent 长链路任务深度优化,重点提升复杂指令拆解、工具调用与长任务稳定性。
MiniMax-M2.5MiniMax深度思考
文本生成
编程、工具调用、搜索与办公生产力场景均达到或刷新行业 SOTA。
Deepseek-v3.2DeepSeek深度思考
文本生成
685B 参数 MoE 模型,稀疏注意力架构长文本处理更高效,推理评测达 GPT-5 水平。
Deepseek-v3.1DeepSeek深度思考
文本生成
685B 参数 MoE 模型,优化语言一致性与 Agent 能力,输出效果相比前一版本更加稳定。
Deepseek-r1-0528DeepSeek深度思考
文本生成
671B 模型,架构优化与训练策略升级,代码生成、长文本处理与复杂推理显著提升。
Deepseek-v3-0324DeepSeek文本生成671B 参数 MoE 模型,编程与技术能力、上下文理解与长文本处理优势突出。

视觉模型

模型厂商能力介绍
HY-3D-3.1混元文生3D
图生3D
支持文生3D、图生3D、八视图生3D、单几何生成(白模)、草图生3D、智能拓扑生3D,精度与质量更高。
HY-3D-3.0混元文生3D
图生3D
支持文生3D、图生3D、多视图生3D、单几何生成(白模)、草图生3D、智能拓扑生3D。
HY-Image-V3.0混元文生图
图生图
能思考图像布局与构图,解析千字级复杂语义,支持长文本文字、复杂漫画、表情包及科普插画生成。
HY-Video-1.5混元文生视频
图生视频
支持文本/图像多模态输入生成高清视频,可实现场景切换与多角色交互,适用于企业广告营销与个人创意场景。
HY-Image-Lite混元文生图超高压缩编解码器,快速响应与高品质输出,适用于电商商品图美化、素材生成、游戏场景迭代。
YT-Video-2.0优图图生视频生成动态连贯性高的视频,适用于高要求广告、影视片段与产品展示视频场景。
YT-Video-HumanActor优图图生视频单张参考照片驱动生成动态人像视频,精准还原表情与姿态,支持写实、二次元等多风格切换。
YT-Video-FX优图图生视频上传图片并选择特效模板,将静态图像转化为充满动感与活力的特效视频。
HY-3D-Express混元文生3D
图生3D
混元生3D 极速版,生成时间缩短至 1 分 30 秒内,快速输出 3D 模型文件。

多模态理解模型

模型厂商能力介绍
YT-VITA优图视觉理解
多模态理解
文本生成
多模态理解模型,支持对视频和图片内容进行分析,可用于视频结构解析、图像目标检测等场景。

能力说明

深度思考:模型在生成最终回答前,先进行内部思维链(Chain-of-Thought)推理,通过逐步分析和拆解问题,提升复杂任务(如数学、逻辑推理、代码生成等)的回答准确性。

联网搜索:模型支持在推理过程中访问互联网,检索并整合实时信息,从而为时效性问题(如新闻、天气、最新数据等)提供更准确的回答。

结构化输出:模型支持按照指定的格式(如 JSON Schema)输出结构化数据,便于下游程序直接解析和使用,适用于信息抽取、数据填充、API 响应构建等场景。

Function Calling:模型支持函数调用能力,可在推理过程中根据用户意图自动识别并触发预定义的外部工具或 API,实现查询数据库、调用第三方服务等扩展操作。

Cache 缓存:模型 Cache 缓存能力可复用历史请求中的上下文计算结果,减少重复计算开销,从而提升响应速度并降低调用成本。


快速上手

步骤一:登录 TokenHub 控制台

登录腾讯云大模型服务平台 TokenHub 控制台,按照界面提示开通服务后,可在模型广场浏览并选择模型,详细模型信息可参见模型列表。

步骤二:领取免费体验包

平台为新用户提供一定额度的免费体验额度,让您零成本试用模型。各模型免费体验额度信息可参见新人免费体验包,具体免费额度及有效期请以控制台显示为准。

领取方式:

  1. 进入模型广场页面,单击右上角的「新用户福利免费体验」。
  2. 在弹窗中勾选模型后,单击「立即领取」,即可获得多个模型的免费使用额度。

步骤三:创建 API Key

在调用模型 API 之前,需要先创建 API Key 作为鉴权凭证。

  1. 进入 API Key 管理页面。
  2. 在页面上方选择地域后,单击「创建 API Key」。
  3. 填写 Key 名称,并设置可访问范围:
    • 全选:可访问当前账号下所有模型和推理服务。
    • 限定范围:指定可访问的模型和/或推理服务,实现访问范围控制。
  4. 单击「确定」完成创建。

创建完成后,请务必复制并妥善保管 API Key,后续调用 API 时将会使用该信息。

步骤四:通过 API 调用模型

TokenHub 兼容 OpenAI API 协议,可使用熟悉的 SDK 和工具直接接入。

请将示例代码中的 YOUR_API_KEY 替换为真实的 API Key,并修改 model 字段为需要调用的模型名称。

CURL

curl -X POST 'https://tokenhub.tencentmaas.com/v1/chat/completions' \
  -H 'Authorization: Bearer YOUR_API_KEY' \
  -H 'Content-Type: application/json' \
  -d '{
    "model": "deepseek-v3",
    "messages": [{"role": "user", "content": "你好"}],
    "stream": true
  }'

Python

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://tokenhub.tencentmaas.com/v1"
)

response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "你好,请介绍一下你自己"}
    ]
)
print(response.choices[0].message.content)

Node.js

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "YOUR_API_KEY",
  baseURL: "https://tokenhub.tencentmaas.com/v1",
});

async function main() {
  const response = await client.chat.completions.create({
    model: "deepseek-v3",
    messages: [
      { role: "system", content: "You are a helpful assistant." },
      { role: "user", content: "你好,请介绍一下你自己" },
    ],
  });
  console.log(response.choices[0].message.content);
}

main();

Java

import java.net.http.*;
import java.net.URI;

public class MaaSExample {
    public static void main(String[] args) throws Exception {
        String apiKey = "YOUR_API_KEY";
        String body = """
            {
                "model": "deepseek-v3",
                "messages": [{"role": "user", "content": "你好"}]
            }
            """;

        HttpRequest request = HttpRequest.newBuilder()
            .uri(URI.create("https://tokenhub.tencentmaas.com/v1/chat/completions"))
            .header("Authorization", "Bearer " + apiKey)
            .header("Content-Type", "application/json")
            .POST(HttpRequest.BodyPublishers.ofString(body))
            .build();

        HttpClient client = HttpClient.newHttpClient();
        HttpResponse<String> response = client.send(request,
            HttpResponse.BodyHandlers.ofString());
        System.out.println(response.body());
    }
}

Go

package main

import (
    "bytes"
    "encoding/json"
    "fmt"
    "io"
    "net/http"
)

func main() {
    apiKey := "YOUR_API_KEY"
    body := map[string]interface{}{
        "model": "deepseek-v3",
        "messages": []map[string]string{
            {"role": "user", "content": "你好"},
        },
    }

    jsonBody, _ := json.Marshal(body)
    req, _ := http.NewRequest("POST",
        "https://tokenhub.tencentmaas.com/v1/chat/completions",
        bytes.NewBuffer(jsonBody))
    req.Header.Set("Authorization", "Bearer "+apiKey)
    req.Header.Set("Content-Type", "application/json")

    resp, err := http.DefaultClient.Do(req)
    if err != nil {
        panic(err)
    }
    defer resp.Body.Close()

    result, _ := io.ReadAll(resp.Body)
    fmt.Println(string(result))
}

参考资料

TokenHub 产品迭代较快,本文内容可能存在疏漏或滞后,最新模型列表与功能说明请以腾讯云官方网站为准。

文中模型列表、能力标签、功能描述等内容以官方网站显示为准。