tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们

引擎级别参数设置

PDF
聚焦模式
字号
最后更新时间: 2025-12-29 18:03:24
说明:
目前支持 SparkSQL 引擎、Spark 作业引擎设置引擎。
Spark 参数是用来配置和调优 Apache Spark 应用程序的设置。在自建的 Spark 中这些参数可以通过命令行选项、配置文件或编程方式进行设置。在 DLC 中,您可以在 SparkSQL 引擎和 Spark 作业引擎的 SQL 和代码中指定 Spark 参数,也可以直接设定引擎维度的参数,引擎级别的 Spark 参数设置如下。

设置引擎级别参数

1. 进入 SuperSQL引擎 模块,单击参数配置,弹出引擎参数侧拉窗。

2. Spark 作业引擎下,您可以配置作业默认资源规格和参数。SparkSQL 引擎下无需关注作业默认资源规格。




使用引擎级别参数

Spark 作业引擎使用引擎级别参数

Spark 作业引擎提交作业有两个入口:数据作业数据探索。二者都支持使用引擎级别参数。
创建数据作业时,默认会继承引擎级别的参数和资源配置。您可以通过作业参数(--config)覆盖引擎级别参数,并选择是否继承引擎级别的资源配置。选中默认配置时,将使用引擎级别的资源配置。



数据探索使用 Spark 作业引擎运行 SQL 时,默认会继承引擎级别的参数和资源配置。您可以通过 SQL 中的 set 命令覆盖引擎级别参数,并选择是否继承引擎级别的资源配置。




SparkSQL 引擎使用引擎级别参数

SparkSQL 引擎没有引擎级别资源参数,任务会尽可能用满集群资源。目前 SparkSQL 引擎需要在数据探索中提交 SQL。数据探索使用 SparkSQL 引擎运行 SQL 时,默认会继承引擎级别的参数,您可以通过 SQL 中的 set 命令覆盖引擎级别参数。

帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈