tencent cloud

Data Lake Compute

製品概要
プロダクト概要
製品の強み
適用シーン
購入ガイド
課金概要
返金説明
支払い期限切れ説明
設定調整費用の説明
クイックスタート
新規ユーザー開通フルプロセス
DLC データインポートガイド
DLCデータ分析の1分間入門
DLC権限管理の1分間入門
パーティションテーブル1分間入門
データ最適化をオンにする
クロスソース分析 EMR Hive データ
標準エンジン構成ガイド
操作ガイド
コンソール操作紹介
開発ガイド
実行環境
SparkJar ジョブ開発ガイド
PySparkジョブ開発ガイド
「クエリパフォーマンス最適化ガイド」
UDF 関数開発ガイド
システム制約
クライアントアクセス
JDBCアクセス
TDLC コマンドラインツールにアクセス
サードパーティソフトウェア連携
Python にアクセス
実践チュートリアル
DLC を Power BI に接続
テーブル作成の実践
Apache Airflowを使用してDLCエンジンのタスクをスケジュールして送信する
StarRocks は DLC 内部ストレージを直接クエリします
Spark の計算コスト最適化プラクティス
DATA + AI
ロールSSOを使用してDLCにアクセスする
SQL構文
SuperSQL構文
標準 Spark 構文概要
標準 Presto 構文の概要
予約語
API Documentation
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
一般クラスリファレンス
エラーコード
クォータと制限
サードパーティソフトウェアでDLCに接続する操作ガイド
よくあるご質問
権限に関するよくあるご質問
エンジン類のよくある質問
機能に関するよくあるご質問
Sparkジョブクラスに関するよくある質問
DLC ポリシー
プライバシーポリシー
データプライバシーとセキュリティ契約
お問い合わせ

データジョブを作成

PDF
フォーカスモード
フォントサイズ
最終更新日: 2025-12-24 11:41:30

事前準備

データジョブを作成する前に、データジョブが安全にデータにアクセスできるように、データアクセスポリシーの設定を完了する必要があります。設定手順については、データアクセスポリシーの設定を参照してください。

作成手順

1. データレイクコンピューティング DLC コンソールにログインし、左側メニューのデータジョブをクリックしてデータジョブ管理ページに進みます。
2. ジョブを作成ボタンをクリックし、作成ページに進みます。


データアクセスポリシーを選択

データレイク DLC コンソール > データジョブページに進み、「ジョブ作成」ボタンをクリックして作成ページに入ります。データアクセスポリシーオプションには自動的に常駐アクセスポリシーが入力されますが、ドロップダウンオプションから他のアクセスポリシーを選択できます。常駐アクセスポリシーの追加または切り替えが必要な場合は、データアクセスポリシーの設定を参照してください。
設定パラメータは以下の通りです:
設定パラメータ
説明
作業名
日本語、英語、数字および「_」をサポートし、最大100文字まで
作業タイプ
バッチ処理:Spark jar に基づくバッチデータ処理作業
ストリーム処理:Spark Streaming に基づくストリームデータ処理作業
SQL作業:バックグラウンドでJarパッケージにカプセル化され、spark.sqlオペレーターを呼び出してSQL文を実行します
プログラムパッケージ
jar形式をサポートします。
オブジェクトストレージcos内のファイルを選択するか、ローカルからアップロードすることができます。ローカルアップロードは5MBを超えることはできません。プログラムパッケージが5MBを超える場合は、まずcosにアップロードしてから使用してください。
cosストレージパスを直接入力できます
メインクラス(Main Class)
jarファイルを選択する際に必須です。jarパッケージのメインクラスパラメータで、複数のパラメータはスペースで区切ります
プログラムエントリパラメータ
任意。プログラムのエントリパラメータで、複数の入力が可能です。複数のパラメータは「スペース」で区切ります
ジョブパラメータ
必須ではありません。ジョブ-config情報で、spark.で始まるパラメータをk=v形式で記入し、複数のパラメータは改行して記入します。
例:spark.network.timeout=120s
Sparkイメージ
必須
依存する jar リソース(--jar)
任意。jar形式をサポートし、複数選択可能
オブジェクトストレージcos内のファイルを選択するか、ローカルからアップロードすることができます。ローカルアップロードは5MBを超えることはできません。リソースが5MBを超える場合は、まずcosにアップロードしてから使用してください。
cosストレージパスを直接入力でき、複数のパスは「;」で区切ります
依存する py リソース(--py-files)
任意。py、zip、egg形式をサポートし、複数選択可能
オブジェクトストレージcos内のファイルを選択するか、ローカルからアップロードすることができます。ローカルアップロードは5MBを超えることはできません。リソースが5MBを超える場合は、まずcosにアップロードしてから使用してください。
cosストレージパスを直接入力でき、複数のパスは「;」で区切ります
依存する files リソース(--files)
任意。jar、zip形式はまだサポートされていませんが、複数選択可能です
オブジェクトストレージcos内のファイルを選択するか、ローカルからアップロードすることができます。ローカルアップロードは5MBを超えることはできません。リソースが5MBを超える場合は、まずcosにアップロードしてから使用してください。
cosストレージパスを直接入力でき、複数のパスは「;」で区切ります
依存する archives リソース(--archives)
任意。tar.gz、tgz、tar形式をサポートし、複数選択可能
オブジェクトストレージcos内のファイルを選択するか、ローカルからアップロードすることができます。ローカルアップロードは5MBを超えることはできません。リソースが5MBを超える場合は、まずcosにアップロードしてから使用してください。
cosストレージパスを直接入力でき、複数のパスは「;」で区切ります
CAM Role arn
ジョブ設定で構成されたデータアクセスポリシーは、データジョブがアクセス可能なデータ範囲を指定します。詳細な設定説明についてはデータアクセスポリシーの設定を参照してください。
リソース設定
データジョブのエンジンリソースを設定可能で、設定可能なリソース数は選択したデータエンジン仕様を超えません。リソース説明:1CU≈1コア4G
課金CU数 = Executorリソース * Executor数 + Driverリソース
従量課金のデータエンジン費用は、計算CU数の使用量に基づいて請求されます。
設定の記入が完了したら、保存をクリックして作成を完了します。

ヘルプとサポート

この記事はお役に立ちましたか?

フィードバック