tencent cloud

Data Lake Compute

Hive JDBC アクセス

PDF
フォーカスモード
フォントサイズ
最終更新日: 2025-12-25 11:01:12

サポートエンジンタイプ

標準Sparkエンジン

環境準備

依存関係:JDK 1.8

標準Sparkエンジンに接続

サービスアクセスリンクを作成

データエンジンページに入り、ゲートウェイの詳細ボタンをクリックして、ゲートウェイ詳細ページに移動します:

プライベート接続を作成をクリックし、送信機が配置されているVPCとサブネットを選択し、作成をクリックすると、Hive2とPrestoプロトコルの2つのアクセスリンクが生成されます。標準SparkエンジンにはHive2プロトコルを使用します。下図を参照してください。
注意:
プライベート接続を作成すると、エンジンネットワークと選択したVPC間のネットワークが接続されます。サブミッションマシンは、選択したVPC下でログイン可能な任意のサーバーを使用でき、タスクの送信のみに使用されます。選択したVPC下にサブミッションマシンがない場合は、新しいサーバーを作成してサブミッションマシンとして使用できます。

jdbc:hive2://{endpoint}:10009/?spark.engine={DataEngineName};spark.resourcegroup={ResourceGroupName};secretkey={SecretKey};secretid={SecretId};region={Region};kyuubi.engine.type=SPARK_SQL;kyuubi.engine.share.level=ENGINE

JDBCドライバをロード

Class.forName("org.apache.hive.jdbc.HiveDriver");

DriverManager を使用して Connection を作成します

jdbc:hive2://{endpoint}:10009/?spark.engine={DataEngineName};spark.resourcegroup={ResourceGroupName};secretkey={SecretKey};secretid={SecretId};region={Region};kyuubi.engine.type=SPARK_SQL;kyuubi.engine.share.level=ENGINE
Properties properties = new Properties();
properties.setProperty("user", {AppId});
Connection cnct = DriverManager.getConnection(url, properties);

JDBC接続文字列パラメータ説明

パラメータ
必須
説明
spark.engine
はい
標準Sparkエンジン名
spark.resourcegroup
いいえ
標準Sparkエンジンリソースグループ名、指定しない場合は一時リソースを作成します
secretkey
はい
TencentCloud APIキー管理におけるSecretKey
secretid
はい
TencentCloud APIキー管理におけるSecretId
region
はい
地域、現在DLCサービスはap-nanjing、ap-beijing、ap-beijing-fsi、ap-guangzhou、ap-shanghaiをサポートしています
ap-chengdu、ap-chongqing, na-siliconvalley, ap-singapore, ap-hongkong, na-ashburn, eu-frankfurt,
ap-shanghai-fsi
kyuubi.engine.type
はい
固定填:SparkSQLTask
kyuubi.engine.share.level
はい
エンジンを固定
user
はい
ユーザー APPID

データクエリの完成例

import org.apache.hive.jdbc.HiveStatement;
import java.sql.*;
import java.util.Properties;

public class TestStandardSpark {
public static void main(String[] args) throws SQLException {
try {
Class.forName("org.apache.hive.jdbc.HiveDriver");
} catch (ClassNotFoundException e) {
e.printStackTrace();
return;
}
String url = "jdbc:hive2://{endpoint}:10009/?spark.engine={DataEngineName};spark.resourcegroup={ResourceGroupName};secretkey={SecretKey};secretid={SecretId};region={Region};kyuubi.engine.type=SPARK_SQL;kyuubi.engine.share.level=ENGINE";
Properties properties = new Properties();
properties.setProperty("user", {AppId});
Connection connection = DriverManager.getConnection(url, properties);
HiveStatement statement = (HiveStatement) connection.createStatement();
String sql = "SELECT * FROM dlc_test LIMIT 100";
statement.execute(sql);
ResultSet rs = statement.getResultSet();
while (rs.next()) {
System.out.println(rs.getInt(1) + ":" + rs.getString(2));
}
rs.close();
statement.close();
connection.close();
}
}
コンパイルが完了したら、jarパッケージを提出機に提出して実行できます。

ヘルプとサポート

この記事はお役に立ちましたか?

フィードバック