tencent cloud

腾讯云 TI 平台

产品简介
产品概述
产品定价
客户价值
应用场景
购买指南
计费概述
购买方式
续费说明
欠费说明
安全合规
数据安全保护机制
监控、审计与日志
安全合规资质
快速入门
平台使用准备
操作指南
大模型广场
任务式建模
开发机
模型管理
模型评测
在线服务
资源组管理
数据源管理
Tikit
GPU 虚拟化
实践教程
LLM 部署及推理
LLM 训练及评测
内置训练镜像列表
自定义训练镜像规范
Angel 训练加速功能介绍
基于标签实现子用户间资源隔离
相关协议
TI Platform 隐私协议
TI Platform 数据处理和安全协议
开源软件信息
联系我们

模型仓库使用

PDF
聚焦模式
字号
最后更新时间: 2026-02-04 18:37:03
模型仓库支持导入模型。列表页管理着不同的模型以及模型的不同版本;导入窗口支持从任务式建模直接导入模型以及从 COS 上传。

仓库列表

模型仓库列表中可查看模型及对应的版本,并对模型进行发布在线服务等操作,分为模型列表和优化模型列表,模型列表为客户上传上来的原始模型列表,优化模型列表为经过模型优化后保存的优化后的模型列表。



支持对模型进行删除,单击删除按钮,此模型及对应的模型版本皆被删除。
支持对模型标签进行编辑,单击编辑标签按钮,可进行标签编辑。
支持对模型版本进行优化,在某一个模型版本点击优化模型,可跳转到模型优化新建任务页面进行优化。
支持对模型版本发布封装,在某一个模型版本单击发布在线服务,可跳转到模型服务新建服务页面进行模型服务发布。
支持对模型版本进行批量预测,在某一个模型版本单击批量预测,可跳转到批量预测新建任务页面进行批量预测。
支持对模型版本进行导入子版本,在某一个模型版本单击导入模型,可在当前模型版本目录下新增目录和子版本,目前仅支持对 Savedmodel 格式进行导入子版本,主要用于 tfserving 热更新使用。
支持查看关联在线服务,单击查看关联在线服务可查看模型版本关联的模型服务以及状态;
支持查看关联跑批任务,单击查看关联跑批任务可查看模型版本关联的跑批任务以及状态;
支持下载 SDK 操作,单击下载 sdk 按钮可打开 COSBrowser 进行下载。您需要先安装 COSBrowser 客户端。
单击版本对应的删除按钮可删除对应的模型版本,需要注意的是,删除后不可恢复,已关联服务组并且服务在启动运行中的模型版本不支持删除,已关联批量预测任务并且任务在启动运行中的模型版本不支持删除。删除时可单击查看关联服务组或者查看关联跑批任务进行查看以确定是否要进行删除。

导入模型

进入模型管理 > 模型仓库,单击导入模型 按钮开始导入模型。

导入新模型




1. 按要求填入模型名称、自定义设置标签。(标签用于从不同维度对资源分类管理。用户需要先从控制台进行标签设置。对于标签设置您可以直接单击 标签管理使用指南查看。)
2. 从任务导入:
选择训练任务名称。
选择训练任务之后选择对应的模型格式,如有任务对应的算法框架、模型来源路径、模型指标信息,信息将会被自动填充,模型指标填充的是最新上报指标。
运行环境您可选择内置的,也可通过自定义选择的方式从容器镜像服务中拉取,优化后的模型目前仅支持内置运行环境运行。
系统也会自动获取此任务的模型文件,您可选择剪切或者复制的方式对此模型文件进行处理,处理完成后将自动为您生成 COS 路径。
3. 从 COS 导入:
选择模型格式,目前模型格式支持 Savedmodel、Frozen Graph、TorchScript、Detectron2、PyTorch 原生、PMML、ONNX、MMDetection、Hugging Face。
输入您期望上传的模型对应的模型指标
运行环境您可选择内置的,支持内置的运行环境对应上述支持的模型格式,也可通过自定义选择的方式从容器镜像服务中拉取。
上传模型文件:需要您上传模型文件,具体请参考 模型包规范

导入新版本




1. 您可选择一个模型后导入这个模型的新版本,模型版本号将自动在历史最高版本号基础上+1,如V2、V3等。
2. 从任务导入:
选择训练任务名称。
选择训练任务之后选择对应的模型格式,如有任务对应的算法框架、模型来模型来源路径、模型指标信息将会被自动填充,模型指标填充的是最新上报指标。
运行环境您可选择内置的,也可通过自定义选择的方式从容器镜像服务中拉取,优化后的模型目前仅支持内置运行环境运行。
系统也会自动获取此任务的模型文件,您可选择剪切或者复制的方式对此模型文件进行处理,处理完成后将自动为您生成 COS 路径。
3. 从 COS 导入:
选择模型格式,目前模型格式支持 Savedmodel、Frozen Graph、TorchScript、Detectron2、PyTorch原生、PMML、ONNX、MMDetection、Hugging Face。
输入您期望上传的模型对应的模型指标
运行环境您可选择内置的,支持内置的运行环境对应上述支持的模型格式,也可通过自定义选择的方式从容器镜像服务中拉取。
上传模型文件:需要您上传模型文件、推理脚本代码和服务 API 配置文件。推理代码和配置文件请分别命名为 config.json、model_service.py ,具体请参考 模型包规范 和 模型推理文件简介和示例
完成以上配置后,单击确定按钮,模型便导入成功。

导入至当前版本





1. 您可选择一个模型版本后导入这个模型版本的子版本,目前仅支持 Savedmodel 格式,主要用于 tfserving 热更新,您可以选择已经存在于模型列表里的 Savedmodel 格式模型和版本。
2. 从任务导入:
选择 Savedmodel 格式模型的训练任务名称。
选择训练任务之后,如有任务对应的算法框架、模型来源路径、模型指标信息,信息将会被自动填充,模型指标填充的是最新上报指标。
运行环境您可选择内置的,也可通过自定义选择的方式从容器镜像服务中拉取,优化后的模型目前仅支持内置运行环境运行。
模型导入目录为追加在该模型版本下的存储目录,该目录需要是模型版本主目录或者其子目录,可以选择在模型版本目录追加子版本的目录,平台会自动根据时间戳生成新目录,您可以根据需求选择是否勾选。
开启模型清理后将在模型版本对应的“模型保存路径”目录下寻找“model”目录,并根据模型数量保留上限的设定值,保留 model 目录里最新的N个模型。
系统也会自动获取此任务的模型文件,您可选择剪切或者复制的方式对此模型文件进行处理,处理完成后将自动为您生成 COS 路径。
3. 从 COS 导入:
选择模型格式,目前模型格式支持 Savedmodel。
运行环境您可选择内置的,支持内置的运行环境对应上述支持的模型格式,也可通过自定义选择的方式从容器镜像服务中拉取。
模型来源路径,请选择您要导入的模型子版本对应的文件夹。
输入您期望上传的模型对应的模型指标
模型导入目录为追加在该模型版本下的存储目录,该目录需要是模型版本主目录或者其子目录,可以选择在模型版本目录追加子版本的目录,平台会自动根据时间戳生成新目录,您可以根据需求选择是否勾选,会将您选中的模型来源文件夹下的所有文件复制或者粘贴到模型导入目录。
开启模型清理后将在模型版本对应的“模型保存路径”目录下寻找“model”目录,并根据模型数量保留上限的设定值,保留model目录里最新的N个模型。
会根据选择的模型移动方式将您选中的模型来源文件夹下的所有文件复制或者粘贴到模型导入目录
完成以上配置后,单击确定按钮,导入至现有版本便导入成功。

模型优化

原始模型列表的模型可在模型优化模块进行推理加速,请参考 模型优化 对模型进行推理加速。

发布在线服务

原始模型在原始模型列表对应的模型版本操作中,单击发布在线服务进行服务的发布封装,优化模型在原始模型列表对应的模型版本操作中,单击发布在线服务进行服务的发布封装,后续详细步骤请参考 在线服务 对模型进行部署和使用。


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈