tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们

查询脚本分析

PDF
聚焦模式
字号
最后更新时间: 2024-08-07 17:09:00
为方便用户快速处理重复的查询工作任务,数据湖计算 DLC 为用户提供了脚本文件分析。
说明
控制台中允许保存最多100个 SQL 脚本。

新建查询目录

2. 在查询页面中,单击添加查询目录。

3. 填写目录配置后,即可保存完成创建。

目录名称:支持中文、英文及“_”,最多25个字符。
权限设置:可根据工作组或用户视角,对该脚本目录及目录下的脚本,设置可见权限。

新建查询脚本

1. 登录 数据湖计算 DLC 控制台 > 脚本查询页面,可通过点击库

图标或直接新增执行与保存。
2. 选择计算引擎后,单击运行即可执行脚本。


保存查询脚本

1. 查询完成后,单击“保存”按钮。
2. 通过库创建的查询,会保存在该库的目录下。通过 tab 栏添加查询的可直接存在根目录下或选择有权限的库保存。

3. 查询表的权限根据库的公开范围自定义选择,同时支持针对公开范围制定表的使用权限。


查看脚本信息

1. 鼠标悬停到需要查看的脚本名称,即可查看脚本详情信息。

2. 单击需要查看的表旁的

图标,即可选择打开或查询。


删除查询脚本

单击需要删除的表旁的

图标,即可选择删除脚本。

注意:
脚本删除后将无法恢复,请谨慎操作。


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈