Release Notes
お知らせ






{"InputInfo":{ //入力ビデオパス。ご自身の元のビデオに置き換えてください"Type":"URL","UrlInputInfo":{"Url":"https://test-1234567.cos.ap-nanjing.myqcloud.com/mps_test/myvideo.mp4"}},"OutputStorage":{ //出力先のCOSバケット。置き換えてください"Type":"COS","CosOutputStorage":{"Bucket":"test","Region":"ap-nanjing"}},"OutputDir":"/mps_test/output/",//出力先のフォルダパス。置き換えてください"AiAnalysisTask":{"Definition":27, //スマート分割プリセットテンプレートID。27を記入してください"ExtendedParameter":"{\\"des\\":{\\"split\\":{\\"method\\":\\"llm\\",\\"model\\":\\"deepseek-v3\\",\\"max_split_time_sec\\":100,\\"extend_prompt\\":\\"このビデオはオンライン教育シナリオのビデオです。講師が解説する知識ポイントに基づいてビデオをセグメント化してください\\"},\\"need_ocr\\":true,\\"text_requirement\\":\\"要約は40字以内\\",\\"dstlang\\":\\"zh\\"},\\"strip\\":{\\"type\\":\\"content\\"}}" //拡張パラメータ。異なる内容の分割を選択するには、この部分を置き換える必要があります。設定値は導入チュートリアルドキュメントを参照してください},"TaskNotifyConfig":{ //イベントコールバック通知設定。任意"NotifyType":"URL","NotifyUrl":"http://www.qq.com/callback"}}

{"des":{"split":{"method":"llm","model":"deepseek-v3","max_split_time_sec":100,"extend_prompt":"このビデオはオンライン教育シナリオのビデオです。講師が解説する知識ポイントに基づいてビデオをセグメント化してください" }, "need_ocr":true,"text_requirement":"要約は40字以内","dstlang":"zh"},"strip":{"type":"content"}}
{\\"des\\":{\\"split\\":{\\"method\\":\\"llm\\",\\"model\\":\\"deepseek-v3\\",\\"max_split_time_sec\\":100,\\"extend_prompt\\":\\"このビデオはオンライン教育シナリオのビデオです。講師が解説する知識ポイントに基づいてビデオをセグメント化してください\\"},\\"need_ocr\\":true,\\"text_requirement\\":\\"要約は40字以内\\",\\"dstlang\\":\\"zh\\"},\\"strip\\":{\\"type\\":\\"content\\"}}
{"des": {"split": {"method": "llm","model": "deepseek-v3","max_split_time_sec": 100,"extend_prompt": "このビデオは医療シナリオのビデオです。医療関連の知識ポイントに基づいてビデオをセグメント化してください"},"need_ocr": true,"text_requirement": "要約は40字以内""dstlang": "zh"},"strip": {"type": "content"}}
パラメータ | 必須 | タイプ | 説明 |
split.method | No | string | ビデオのセグメント化方法。llmは大規模モデルによるセグメント化、nlpは従来のNLPによるセグメント化を指します。デフォルトはllmです。 |
split.model | No | string | セグメント化に使用する大規模モデル。hunyuan、deepseek-v3、deepseek-r1から選択可能。デフォルトはdeepseek-v3です。 |
split.max_split_time_sec | No | int | セグメントの最大時間を秒単位で強制的に指定します。セグメント化の効果に影響する可能性があるため、必要な場合にのみ使用することを推奨します。デフォルトは3600です。 |
split.extend_prompt | No | string | 大規模モデルによるセグメント化タスクへのプロンプトを追記します。例:「このビデオは教育ビデオです。関連する知識ポイントに基づいてビデオをセグメント化してください」。まずは入力せずにテストし、期待する効果が得られない場合に追加することをお勧めします。 |
need_ocr | No | bool | OCRをセグメント化の補助として使用するかどうか。trueで有効、デフォルトはfalseです。 無効の場合、システムはビデオの音声内容のみを認識してセグメント化を補助します。有効の場合、ビデオ画面上の文字内容も認識してセグメント化を補助します。 |
text_requirement | No | string | 大規模モデルによる要約タスクへのプロンプトを追記します。例:文字数を制限する「要約は40字以内」。 |
dstlang | No | string | ビデオの言語。ビデオの音声認識および要約結果の言語を指定するために使用します。デフォルトは"zh"です。 "zh":中国語 "en":英語 |

{"strip":{"type":"screen_strip"}}

{"strip":{"type":"news"}}

{"strip":{"type":"object","objects":["人"], "object_set":[91020415]}}



strip-で始まるファイルが、スマート分割の出力ファイル(分割されたビデオおよびカバー画像)です。
TaskNotifyConfigパラメータでイベントコールバックを設定できます。タスク処理が完了すると、設定されたコールバック情報を通じてタスク結果が通知されます。ParseNotificationを使用してイベント通知結果を解析できます。TaskId)(例:24000022-WorkflowTask-b20a8exxxxxxx1tt110253、24000022-ScheduleTask-774f101xxxxxxx1tt110253)が返されます。DescribeTaskDetailAPIを呼び出し、タスクIDを入力してタスク結果を取得します。WorkflowTask -> AiAnalysisResultSetフィールドを解析してタスク結果を取得する必要があります。{"Url": "http://www.abc.com/abc.m3u8","TaskNotifyConfig": {"TaskNotifyConfig": {"NotifyUrl": "http://www.qq.com/callback"},"OutputStorage": {"Type": "COS","CosOutputStorage": {"Bucket": "mybucket","Bucket": "test-1234567",}},"OutputDir": "/path/to/output/","AiAnalysisTask": {"Definition": 27,"ExtendedParameter": "{\\"des\\":{\\"split\\":{\\"method\\":\\"llm\\",\\"model\\":\\"deepseek-v3\\",\\"max_split_time_sec\\":100,\\"extend_prompt\\":\\"このビデオはオンライン教育シナリオのビデオです。講師が解説する知識ポイントに基づいてビデオをセグメント化してください\\"},\\"need_ocr\\":true,\\"text_requirement\\":\\"要約は40字以内\\",\\"dstlang\\":\\"zh\\"},\\"strip\\":{\\"type\\":\\"content\\"}}"}}

TaskNotifyConfigパラメータでコールバック情報を設定できます。ライブストリームの処理中、設定されたコールバック情報を通じてリアルタイムにタスク結果が通知されます。ライブストリーム処理結果の解析ドキュメントを参照し、AiAnalysisResultInfoフィールドを解析してタスク結果を取得できます。フィードバック