tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们

历史记录(旧)

PDF
聚焦模式
字号
最后更新时间: 2025-03-21 12:22:27
为了方便用户查询历史任务记录,数据湖计算 DLC 提供了3种途径对历史任务进行查询处理。

查询编辑器中查看运行历史任务

1. 登录 数据湖计算 DLC 控制台,选择服务地域。
2. 进入数据探索页面,在单个 Session 内单击运行历史即可查看该 Session 下的任务运行历史记录。
3. 单击历史记录 Batch ID 即可在左侧查看对应的运行结果


每个 Session 的运行历史独立,最多保存45天的运行历史记录。
历史任务结果数据保存24小时,如需查看超过24小时的任务结果,需重新运行任务。

数据管理功能中查看数据导入历史

1. 登录 数据湖计算 DLC 控制台 > 数据管理,选择服务地域。
注意:
登录账号需要有数据库相关权限。
2. 单击右上角的任务历史即可查询数据导入历史任务。
3. 支持查看近45天的历史任务




历史运行功能中查看历史任务

1. 登录 数据湖计算 DLC 控制台 > 历史运行,选择服务地域。
2. 进入历史运行页面,管理员可查看近45天所有的历史运行任务,普通用户可查询与自己相关的近45天的任务。
3. 支持对任务类型、执行状态、创建人、数据类型等方式的筛选查看。



4. 单击查看详情,可查看任务运行详情及任务运行结果。

历史任务结果数据保存24小时,如需查看超过24小时的任务结果,需重新运行任务,可直接复制语句至数据探索进行任务运行。
可直接单击任务 ID 快速切换查看任务运行详情。
运行中的任务,可对任务进行取消操作。


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈