tencent cloud

数据湖计算

产品动态
产品简介
产品概述
产品优势
应用场景
购买指南
计费概述
退费说明
欠费说明
调整配置费用说明
快速入门
新用户开通全流程
DLC 数据导入指引
一分钟入门 DLC 数据分析
一分钟入门 DLC 权限管理
一分钟入门分区表
开启数据优化
跨源分析 EMR Hive 数据
标准引擎配置指引
配置数据访问策略
操作指南
控制台操作介绍
开发指南
运行环境
SparkJar 作业开发指南
PySpark 作业开发指南
查询性能优化指南
UDF 函数开发指南
系统约束
客户端访问
JDBC 访问
TDLC 命令行工具访问
第三方软件联动
Python 访问
实践教程
通过 Power BI 访问 DLC 数据操作指南
建表实践
使用 Apache Airflow 调度 DLC 引擎提交任务
StarRocks 直接查询 DLC 内部存储
Spark 计算成本优化实践
DATA + AI
使用 DLC 分析 CLS 日志
使用角色 SSO 访问 DLC
资源级鉴权指南
在 DLC 中实现 TCHouse-D 读写操作
DLC 原生表
SQL 语法
SuperSQL 语法
标准 Spark 语法概览
标准 Presto 语法概览
保留字
API 文档
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
通用类参考
错误码
配额与限制
第三方软件连接DLC操作指南
常见问题
权限类常见问题
引擎类常见问题
功能类常见问题
Spark 作业类常见问题
DLC 政策
隐私协议
数据处理和安全协议
服务等级协议
联系我们
文档数据湖计算快速入门跨源分析 EMR Hive 数据

跨源分析 EMR Hive 数据

PDF
聚焦模式
字号
最后更新时间: 2024-07-17 15:16:50
数据湖计算 DLC 支持配置 EMR Hive 的数据源进行跨源联合分析。
说明:
标准引擎-presto暂不支持该功能,可使用 SuperSQL 类型的引擎及标准引擎-spark进行分析。

使用前准备

获取 EMR Hive 地址。
使用具备创建数据目录权限的账号,详细权限请参见 DLC 权限概述

创建 EMR Hive 数据源

1. 登录 数据湖计算 DLC 控制台,选择服务地域。
2. 通过左侧导航栏进入数据探索,单击库表栏的+按钮,选择新建数据目录


3. 选择连接类型为 EMR Hive(HDFS),选择 EMR 的对应实例,VPC 信息将在实例选择后默认填充。EMR Hive 支持 EMR 的版本:2.3.5,2.3.7,3.1.1,3.1.2
注意:
需具备 EMR Hive 实例的相关权限才可进行选择。



4. 选择运行集群,目前仅支持选择Presto的独享数据引擎,如无对应引擎可至数据引擎页进行数据引擎创建。购买流程请参见 购买独享数据引擎
注意:
所选数据引擎网段不可与 EMR 实例网段相同,否则将导致网络冲突,无法进行数据查询分析。
5. 单击确认按钮即可完成数据目录创建。

查询 EMR Hive 数据

完成数据目录创建之后,即可在数据探索页的数据目录菜单进行数据目录切换。

此时您可通过 SQL 语句对该数据目录进行查询分析。 选择创建数据目录时绑定的数据引擎即可单击运行按钮,获得查询结果。
注意:
仅绑定的数据引擎可查询该数据目录,其他数据引擎将无法进行查询。如需变更绑定的引擎,可单击数据目录判的设置按钮就行编辑修改。







帮助和支持

本页内容是否解决了您的问题?

填写满意度调查问卷,共创更好文档体验。

文档反馈