Release Notes
お知らせ


{"InputInfo": {"Type": "URL","UrlInputInfo": {"Url": "https://facedetectioncos-1251132611.cos.ap-guangzhou.myqcloud.com/video/xxx.mp4" // 要約したいビデオのURLに置き換えてください}},"AiAnalysisTask": {"Definition": 22, // プリセットの大規模モデルビデオ要約テンプレートID"ExtendedParameter": "{\\"des\\":{\\"split\\":{\\"method\\":\\"llm\\",\\"model\\":\\"deepseek-v3\\"}}}"},"OutputStorage": {"CosOutputStorage": {"Bucket": "test-mps-123456789","Region": "ap-guangzhou"},"Type": "COS"},"OutputDir": "/output/","TaskNotifyConfig": {"NotifyType": "URL","NotifyUrl": "http://qq.com/callback/qtatest/?token=xxxxxx"},"Action": "ProcessMedia","Version": "2019-06-12"}
{"des": {"split": {"method": "llm","model": "deepseek-v3","max_split_time_sec": 100,"extend_prompt": "このビデオは医療シナリオのビデオです。医療関連の知識ポイントに基づいてビデオをセグメント化してください"},"need_ocr": true,"ocr_type": "ppt","only_segment": 0,"text_requirement": "要約は40字以内""dstlang": "zh"}}
パラメータ | 必須入力かどうか | タイプ | 説明 |
split.method | No | string | ビデオのセグメント化方法。llmは大規模モデルによるセグメント化、nlpは従来のNLPによるセグメント化を指します。デフォルトはllmです。 |
split.model | No | string | セグメント化に使用する大規模モデル。hunyuan、deepseek-v3、deepseek-r1から選択可能。デフォルトはdeepseek-v3です。 |
split.max_split_time_sec | No | int | セグメントの最大時間を秒単位で強制的に指定します。セグメント化の効果に影響する可能性があるため、必要な場合にのみ使用することを推奨します。デフォルトは3600です。 |
split.extend_prompt | No | string | 大規模モデルによるセグメント化タスクへのプロンプトを追記します。例:「このビデオは教育ビデオです。関連する知識ポイントに基づいてビデオをセグメント化してください」。まずは入力せずにテストし、期待する効果が得られない場合に追加することをお勧めします。 |
need_ocr | No | bool | OCRをセグメント化の補助として使用するかどうか。trueで有効、デフォルトはfalseです。 無効の場合、システムはビデオの音声内容のみを認識してセグメント化を補助します。有効の場合、ビデオ画面上の文字内容も認識してセグメント化を補助します。 |
ocr_type | No | string | OCRの補助タイプ。pptは画面をプレゼンテーションとして扱い、スライドの切り替わりに合わせてセグメント化します。otherはその他を指します。デフォルトはpptです。 |
only_segment | No | int | セグメント化のみを行い、要約を生成しないかどうか。デフォルトは0です。 1:セグメント化のみ行い、要約は生成しません。 0:セグメント化と要約生成の両方を行います。 |
text_requirement | No | string | LLMによる要約タスクへのプロンプトを追記します。例:文字数を制限する「要約は40字以内」。 |
dstlang | No | string | ビデオの言語。ビデオの音声認識および要約結果の言語を指定するために使用します。デフォルトは"zh"です。 "zh":中国語 "en":英語 |

フィードバック