tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们
文档数据湖计算快速入门标准引擎配置指引

标准引擎配置指引

PDF
聚焦模式
字号
最后更新时间: 2026-01-30 15:52:43
数据湖计算 DLC 为您提供两类引擎:标准引擎和 SuperSQL 引擎,具体区别可参考以下表格或详见 数据引擎介绍。您可以根据实际业务诉求,选择合适的引擎进行使用。如选择标准引擎,您可根据本文档进行配置及使用。
 引擎类型
可选类型
主要特点
使用约束
选购建议
标准引擎
Spark
presto
一体化 Spark:标准 Spark 引擎可执行原生语法:Spark/Presto 社区原生语法,学习、迁移成本低
使用灵活:支持 Hive JDBC 及 Presto JDBC
一体化 Spark:标准 Spark 引擎可执行 SQL及 Spark 批任务
网关免费规格为2CU
1. 需使用 Spark/Presto 原生语法。
2. 希望购买一个 Spark 引擎完成批作业及离线 SQL 任务。
3. 希望使用 Hive JDBC 及 Presto JDBC。
SuperSQL 引擎
SparkSQL
Spark 作业
presto
统一语法:同一套语法适用于Spark 及 Presto 引擎
支持联邦查询
需学习 SuperSQL 统一语法 SQL/批任务场景建议购买对应类型引擎
1. 希望使用 Spark + Presto 统一语法。
2. 需要使用联邦查询。
注意:
1. 购买前,请确认您的账号是否已在 CAM 中开通财务权限。
2. 资源无法跨地域使用,购买前请确认当前地域是否正确。
3. presto 引擎已下线,仅供存量用户使用。

标准引擎配置指引

在完成标准引擎的购买与配置后,您即可在 DLC 数据探索中使用标准引擎,此外针对 Spark 标准引擎,如果有多租户或任务隔离需求,您另可在配置用于资源分配与隔离的标准引擎资源组,具体指引如下:

第一步:购买引擎

说明:
1. 引擎不支持跨地域使用
2. 引擎规格建议:由于16CUs的集群规模较小,建议仅用于测试场景,真实生产场景建议选择购买64CUs以上规格的集群。
3. 引擎网络配置:首次开通购买时,允许配置自定义网络配置,后续如需更改,请提交工单申请。
1. 登录 数据湖计算 DLC 控制台,选择服务地域
2. 左侧导航菜单进入标准引擎

第二步:使用数据探索

选择标准引擎进行查询

说明:
根据标准引擎的类型不同,您需要切换对应的语法进行查询。
如您在数据探索选择的引擎类型为标准 Spark 引擎时,您可以通过使用 DLC 默认资源组、已创建的资源组或使用一次性资源组(自定义配置)进行任务资源分配。


获取全量结果

标准引擎目前支持工作台返回200条,500条或1000条查询结果,全量结果获取可参考以下方式:
使用引擎
获取方式
标准 Spark 引擎
1. 支持用户通过配置将查询结果自动保存至 COS 路径下或 DLC 的托管存储查看
2. 下载至本地查看
标准 Presto 引擎
通过 JDBC 获取全量结果获取。

第三步:配置资源组(非必选)

资源组是对 Spark 标准引擎计算资源的二级队列划分,具体介绍可参考 资源组介绍。DLC Spark 标准引擎的计算单元(CU)可按需被划分到多个资源组中,并设置每个资源组可使用CU数量的最小值和上限、启停策略、并发数和动静态参数等,从而满足多租户、多任务等复杂场景下的计算资源隔离与工作负载的高效管理。
当您购买的引擎为标准 Spark 引擎时,数据湖计算 DLC 会为您提供默认资源组及支持您可以根据实际业务诉求,生成多个自定义资源组灵活使用。
说明:
引擎与资源组为一对多关系,例如,引擎 A 下,可以有若干个资源组。

管理与配置资源组

1. 左侧导航菜单进入标准引擎,根据已购买引擎的名称/ID,单击对应操作栏下的管理资源组
2. 进入资源管理组界面,左上角单击创建资源组按钮,进行自定义资源组配置。或查看使用 DLC 默认配置资源组(无需配置)。

附录

关于网关规格选择建议

网关规格
Spark Batch 瞬时并发提交任务数/并行运行任务数
Spark SQL /Presto SQL 并发查询
Presto 引擎管理数量
Spark 资源组管理数量
网关是否 HA
2CU
30/50
100
4
50
16CU
80/150
250
12
150
32CU
220/400
600
35
400
64CU
400/600
1000
70
700
注意:
网关默认提供规格为2CU(不收费),如有升配需求。可通过单击网关详情 > 规格配置按钮进行调整购买,操作步骤请参见 网关介绍


帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈