tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们

引擎本地缓存

PDF
聚焦模式
字号
最后更新时间: 2025-12-19 16:04:19
为保证在网络带宽受限的情况下(例如触发存储系统的限流),Spark 引擎查询分析能稳定运行,DLC Spark 引擎提供本地缓存(Local Cache)能力。当您需要缓存表数据时,可以通过添加引擎配置快速开启缓存功能。

操作步骤

1. 创建 Spark 引擎,详情请参见 购买独享数据引擎
2. 添加缓存配置,进入 DLC 控制台 > 数据引擎,选择步骤1创建的引擎,单击参数配置,将 缓存配置项说明 中的配置项添加到引擎配置中。
Spark SQL 引擎配置:

说明:
添加配置后,引擎集群会重启,建议在没有跑任务的情况下开启缓存,避免影响正在运行的任务。
3. 使用引擎缓存,进入 数据探索,SQL 界面编写查询 SQL,选择开启缓存的引擎,执行 SQL,执行完毕。引擎会将 SQL 中涉及的 DLC 外表缓存到本地,当再次执行 SQL 时,数据会从本地缓存获取,提升查询效率。
Spark SQL 引擎查询:

Spark Batch 引擎查询:


缓存说明

缓存配置项说明

配置项
配置值
配置项说明
spark.hadoop.fs.cosn.impl
alluxio.hadoop.ShimFileSystem
固定值;配置值为缓存功能实现类。配置该值为开启缓存功能;开启缓存功能时,若配置非该值的其他值,会导致引擎访问不到 COS 数据,请谨遵指引配置。
若开启缓存后需关闭缓存,请删除该配置项。

缓存使用说明

1. 引擎类型说明
SparkSQL 引擎:当引擎重新启动后,因缓存为本地缓存,故原缓存的数据会失效。
SparkBatch 引擎:SparkBatch 引擎运行任务为 Session 级别,任务执行完,缓存数据失效。
2. 表类型说明
目前只缓存 DLC 外表。

帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈