tencent cloud

数据开发治理平台 WeData

产品动态
动态发布记录(2026年)
产品简介
产品概述
产品优势
产品架构
产品功能
应用场景
购买指南
计费概述
产品版本购买说明
执行资源购买说明
购买方式
欠费说明
退费说明
准备工作
账号和权限管理概述
添加白名单/安全组(可选)
通过 Microsoft Entra ID(Azure AD)单点登录(SSO)WeData
操作指南
管理控制台
项目管理
数据集成
Studio
数据开发
数据分析
数据科学
数据治理(with Unity Semantics)
API 文档
History
Introduction
API Category
Making API Requests
Smart Ops Related Interfaces
Project Management APIs
Resource Group APIs
Data Development APIs
Data Asset - Data Dictionary APIs
Data Development APIs
Ops Center APIs
Data Operations Related Interfaces
Data Exploration APIs
Asset APIs
Metadata Related Interfaces
Task Operations APIs
Data Security APIs
Instance Operation and Maintenance Related Interfaces
Data Map and Data Dictionary APIs
Data Quality Related Interfaces
DataInLong APIs
Platform Management APIs
Data Source Management APIs
Data Quality APIs
Platform Management APIs
Asset Data APIs
Data Source Management APIs
Data Types
Error Codes
WeData API 2025-08-06
服务等级协议
相关协议
隐私协议
数据处理和安全协议
联系我们
词汇表

离线节点高级参数

PDF
聚焦模式
字号
最后更新时间: 2024-11-01 17:27:18

参数说明

离线类型
读/写
配置内容
适用场景
描述
MySQL
splitFactor=5
单表
-
TDSQL MySQL
splitFactor=5
单表
-
Doris
query_timeout=604800
单表
查询的超时时间,以秒为单位
exec_mem_limit=4294967296
单表
设置执行内存限制,用于限制查询执行过程中的内存使用
parallel_fragment_exec_instance_num=8
单表
指定并行片段执行的实例数
Hive
mapreduce.job.queuename=root.default
单表
用于指定作业(job)提交到哪个队列(queue)中执行
hive.execution.engine=mr
单表
Hive 中的一个配置参数,用于指定 Hive 查询的执行引擎,当前默认 mr,无需修改。
注意:
设置高级参数时,mapreduce.job.queuename=root.default 和 hive.execution.engine=mr 两个参数需要一起使用,使用单个参数无法生效。
DLC
fs.cosn.trsf.fs.ofs.data.transfer.thread.count=8
单表
DLC 并发写入,支持参数 none|hash|range 参数说明:
1. none:存在主键则根据主键进行并发写入,否则单并发写入
2. ash:存在分区字段,根据分区字段并发写入,否则根据参数 none 的策略写入
3. range:暂不支持,策略和 none 一致
fs.cosn.trsf.fs.ofs.prev.read.block.count=4
单表
DLC 开启小文件合并,也可以在 DLC 控制台开启 该参数默认为false,整库同步界面有选项开启,单表同步需要手动配置该参数
Mongodb
batchSize=1000
单表
批量读取的条数
COS
splitFileSize=134217728
单表
单文件切分大小
针对 hive on cos 不生效
支持 text、orc、parquet 类型的文件
hadoopConfig={}
单表
支持添加配置到 hadoopConfig 中
HDFS
splitFileSize=134217728
单表
单文件切分大小
hive on hdfs 不生效
支持 text、orc、parquet 类型的文件
Hive
compress=none/snappy/lz4/bzip2/gzip/deflate
单表
默认为 none。只对 textfile 格式有效,对 orc/parquet 无效(orc/parquet 需要在建表语句指定压缩)
format=orc/parquet
单表
hdfs 临时文件的格式,默认为 orc,跟最终 hive 表格式无关
partition=static
单表
静态分区模式。适用于单分区写入,更节省内存
Doris
sameNameWildcardColumn=true
单表
mysql-doris 配置* 支持同名字段映射
loadProps={"format":"csv","column_separator":"\\\\x01","row_delimiter":"\\\\x03"}
单表
CSV 格式写入。相对默认的 JSON 格式写入性能更高。需要配合行分隔符 \\\\x03 一起使用。
DLC
fs.cosn.trsf.fs.ofs.data.transfer.thread.count=8
单表
DLC 并发写入,支持参数 none|hash|range 参数说明:
1. none:存在主键则根据主键进行并发写入,否者单并发写入
2. hash:存在分区字段,根据分区字段并发写入,否则根据参数 none 的策略写入
3. range:暂不支持,策略和 none 一致
fs.cosn.trsf.fs.ofs.prev.read.block.count=4
单表
DLC 开启小文件合并,也可以在 DLC 控制台开启 该参数默认为false,整库同步界面有选项开启,单表同步需要手动配置该参数
Mongodb
replaceKey=id
单表
写入模式为覆盖写入时,用来作为更新的业务主键
batchSize=2000
单表
批量写入的条数,若不设置,默认为1000
Elasticsearch
compression=true
单表
HTTP 请求,开启压缩
multiThread=true
单表
HTTP 请求,是否有多线程
ignoreWriterError
单表
忽略写入错误,不重试,继续写入
ignoreParseError=false
单表
忽略解析数据格式错误,继续写入
alias
单表
Elasticsearch 的别名类似于数据库的视图机制,为索引 my_index 创建一个别名 my_index_alias,对 my_index_alias 的操作与 my_index 的操作一致。配置alias表示在数据导入完成后,为指定的索引创建别名。
aliasMode=append
单表
数据导入完成后增加别名的模式,包括 append(增加模式)和exclusive(只留这一个),append 表示追加当前索引至别名 alias映射中(一个别名对应多个索引),exclusive 表示首先删除别名 alias,再添加当前索引至别名 alias 映射中(一个别名对应一个索引)。后续会转换别名为实际的索引名称,别名可以用来进行索引迁移和多个索引的查询统一,并可以用来实现视图的功能。
nullToDate=null
单表
null 值转 date 类型,填充 null
Kafka
kafkaConfig={}
单表
支持 Kafka Producer 配置项
元数据字段
读/写
配置内容
Kafka
__key__ 表示消息的 key
__value__ 表示消息的完整内容
__partition__ 表示当前消息所在分区
__headers__ 表示当前消息 headers 信息
__offset__ 表示当前消息的偏移量
__timestamp__ 表示当前消息的时间戳
Elasticsearch
_id 支持获取 _id 信息

配置方式






帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈