tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们

配置公网访问标准引擎

PDF
聚焦模式
字号
最后更新时间: 2025-06-18 15:08:46
通过给执行机绑定公网IP,可以从公网访问标准引擎。

步骤1:创建终端节点

1. 登录 数据湖计算 DLC 控制台,单击左侧菜单标准引擎,进入标准引擎界面,单击网关详情按钮进入详情界面。



在访问管理详情页面点击创建私有连接按钮:



2. 进入创建私有连接界面,选择目标 VPC 和目标子网,其中目标 VPC 和目标子网选择您账号下用户和接入点、引擎通信的一个 VPC。




步骤2:创建执行机并开通公网访问

如果没有执行机,请先购买一台 CVM 作为执行机。
1. 进入腾讯云云服务器 。在对应地域单击新建



2. 执行机需要创建在步骤1中打通终端节点的私有网络的子网下:
给该执行机分配一个公网 IP。
所选安全组要放通了特定的网段和端口。




步骤3:执行机绑定公网 IP

如果是已有的 CVM 作为执行机,但 CVM 上面没有弹性公网IP,可以新建一个弹性公网 IP 并绑定到步骤2中创建的执行机上:




步骤4:修改执行机的 iptables

1. 登录执行机,在执行机上面执行以下指令:
echo 1 > /proc/sys/net/ipv4/ip_forward
echo 0 > /proc/sys/net/ipv4/conf/all/rp_filter
iptables -t nat -A PREROUTING -p tcp --dport 10999 -j DNAT --to $endPointIp:10999
iptables -t nat -A PREROUTING -p tcp --dport 10009 -j DNAT --to $endPointIp:10009
iptables -t nat -A POSTROUTING -j MASQUERADE
iptables -t nat -L -n -v
2. 其中 $endPointIP 为 DLC 控制台上打通终端节点后生成的内网 IP,如下所示:



3. 配置完成后,即可以通过步骤2中创建的 NAT 网关上面绑定的弹性公网 IP 访问标准引擎并提交任务。
说明:
具体访问方式参考文档 Hive JDBC 访问Presto JDBC 访问
您只需要将访问链接中的内网 IP 替换为 NAT 网关绑定的弹性公网 IP 即可。

帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈