tencent cloud

Data Lake Compute

製品概要
プロダクト概要
製品の強み
適用シーン
購入ガイド
課金概要
返金説明
支払い期限切れ説明
設定調整費用の説明
クイックスタート
新規ユーザー開通フルプロセス
DLC データインポートガイド
DLCデータ分析の1分間入門
DLC権限管理の1分間入門
パーティションテーブル1分間入門
データ最適化をオンにする
クロスソース分析 EMR Hive データ
標準エンジン構成ガイド
操作ガイド
コンソール操作紹介
開発ガイド
実行環境
SparkJar ジョブ開発ガイド
PySparkジョブ開発ガイド
「クエリパフォーマンス最適化ガイド」
UDF 関数開発ガイド
システム制約
クライアントアクセス
JDBCアクセス
TDLC コマンドラインツールにアクセス
サードパーティソフトウェア連携
Python にアクセス
実践チュートリアル
DLC を Power BI に接続
テーブル作成の実践
Apache Airflowを使用してDLCエンジンのタスクをスケジュールして送信する
StarRocks は DLC 内部ストレージを直接クエリします
Spark の計算コスト最適化プラクティス
DATA + AI
ロールSSOを使用してDLCにアクセスする
SQL構文
SuperSQL構文
標準 Spark 構文概要
標準 Presto 構文の概要
予約語
API Documentation
History
Introduction
API Category
Making API Requests
Data Table APIs
Task APIs
Metadata APIs
Service Configuration APIs
Permission Management APIs
Database APIs
Data Source Connection APIs
Data Optimization APIs
Data Engine APIs
Resource Group for the Standard Engine APIs
Data Types
Error Codes
一般クラスリファレンス
エラーコード
クォータと制限
サードパーティソフトウェアでDLCに接続する操作ガイド
よくあるご質問
権限に関するよくあるご質問
エンジン類のよくある質問
機能に関するよくあるご質問
Sparkジョブクラスに関するよくある質問
DLC ポリシー
プライバシーポリシー
データプライバシーとセキュリティ契約
お問い合わせ

セッション管理

PDF
フォーカスモード
フォントサイズ
最終更新日: 2025-12-25 10:46:40
セッション管理機能は、インターフェースまたはWedataを介してDLCエンジンに送信されたノートブックの対話型セッションを記録および追跡するために使用されます。ユーザーはセッションを通じてSQLクエリの実行、データ処理、モデルトレーニングなどの操作を行うことができます。

前提条件

データレイクコンピューティング DLC 環境の準備。
データレイクコンピューティング DLC エンジンサービスを開通します。
セッションを作成するには、ジョブタイプのエンジンを購入する必要があります。
SuperSQL ジョブエンジン。
標準エンジン Spark エンジンまたは機械学習リソースグループ。

操作手順

2. セッション管理ページに入ると、ユーザーは過去のすべてのセッション記録を確認できます。
3. エンジンタイプ、状態、Kind、エンジン名、セッションID、セッション名によるフィルタリング表示をサポートします。
4. 「Session Name/ID」をクリックすると、セッションの詳細を確認できます。
5. ユーザーがコンソールで「kill」をクリックしてセッションを閉じることをサポートします。
6. ユーザーがセッションのSpark UIを確認することをサポートします。

セッションリスト

フィールド名称
説明
Session Name/ID
セッションの一意の識別子。
SuperSQL ジョブエンジンによって作成されたセッションには、Session IDのみが含まれます。Session IDのルール:livy-session-uuid。
標準エンジン Spark エンジンによって作成されたセッション:
ユーザーが提出したNotebookの場合、プレフィックスはsession_testとなります。
ユーザーが提出したバッチSQLの場合、プレフィックスはtemporary-rgとなります。
状態
現在のセッションの状態は、以下のように分類できます
not_started:セッションはまだ開始されていません。この状態は、セッションリクエストが受信されたものの、何らかの理由(リソース不足や設定問題など)によりセッションが開始されていないことを示します。ユーザーはセッションを開始するために、関連する設定やリソース状態を確認する必要があります。
starting:セッションは起動中です。この状態は、Livyが新しいSparkセッションのためにリソースを割り当て、環境を初期化していることを示します。
idle:セッションは正常に起動し、アイドル状態になっています。この時点でSparkジョブを送信でき、Livyセッションはリクエストの処理準備が整っています。
busy:セッションは1つ以上のジョブを処理中です。この状態は、セッションがタスクを実行中であり、現在のジョブが完了するまで新しいジョブリクエストを受け付けられないことを示します。
shutting_down:セッションは終了中です。この状態は、ユーザーがセッションの停止をリクエストし、Livyがクリーンアップとリソースの解放を行っていることを示します。セッションは、実行中のすべてのジョブが完了し、リソースが解放されるまで、この状態でしばらく留まる可能性があります。
error:セッションは起動または実行中にエラーが発生しました。この状態は通常、リソース不足、設定エラー、またはその他の問題により、セッションが正常に機能できないことを示します。
dead:セッションは終了し、復元できません。
killed:セッションは強制終了されました。この状態は、ユーザーがセッションを積極的に終了したことを示し、セッションが不要になったか、実行中のジョブに問題が発生した可能性があります。強制終了されたセッションは復元できません。
success:セッションは正常に完了しました。この状態は通常、セッション内のすべてのジョブが正常に実行され完了したことを示します。この状態のセッションは成功したと見なされ、ユーザーは結果や出力を確認できます。
エンジン
マウントされたコンピューティングエンジン。
Kind
会話タイプ:
Spark
Pyspark
SQL
Machine Learning
Python
MLlib
作成者
作成者
時間
セッションの実行時間。

ヘルプとサポート

この記事はお役に立ちましたか?

フィードバック