🎬 SglangDiffusion動画
ローカルのSGLang-Diffusionサーバーで、ユーザーの指示に基づき動画を生成・レンダリングするSkill。
📜 元の英語説明(参考)
Generate videos using a local SGLang-Diffusion server (Wan2.2, Hunyuan, FastWan, etc.). Use when: user asks to generate, create, or render a video with a locally running SGLang-Diffusion instance. NOT for: cloud-hosted video APIs or image generation (use sglang-diffusion for images). Requires a running SGLang-Diffusion server with a video model loaded.
🇯🇵 日本人クリエイター向け解説
ローカルのSGLang-Diffusionサーバーで、ユーザーの指示に基づき動画を生成・レンダリングするSkill。
※ jpskill.com 編集部が日本のビジネス現場向けに補足した解説です。Skill本体の挙動とは独立した参考情報です。
⚠️ ダウンロード・利用は自己責任でお願いします。当サイトは内容・動作・安全性について責任を負いません。
🎯 このSkillでできること
下記の説明文を読むと、このSkillがあなたに何をしてくれるかが分かります。Claudeにこの分野の依頼をすると、自動で発動します。
📦 インストール方法 (3ステップ)
- 1. 上の「ダウンロード」ボタンを押して .skill ファイルを取得
- 2. ファイル名の拡張子を .skill から .zip に変えて展開(macは自動展開可)
- 3. 展開してできたフォルダを、ホームフォルダの
.claude/skills/に置く- · macOS / Linux:
~/.claude/skills/ - · Windows:
%USERPROFILE%\.claude\skills\
- · macOS / Linux:
Claude Code を再起動すれば完了。「このSkillを使って…」と話しかけなくても、関連する依頼で自動的に呼び出されます。
詳しい使い方ガイドを見る →- 最終更新
- 2026-05-17
- 取得日時
- 2026-05-17
- 同梱ファイル
- 2
💬 こう話しかけるだけ — サンプルプロンプト
- › Sglang Diffusion Video を使って、新商品PRの15秒動画プロンプトを作って
- › Sglang Diffusion Video で、Instagram Reels 向けの縦動画プロンプトを作って
- › Sglang Diffusion Video で参考にしたい動画のURLがある。これに近い雰囲気のプロンプトを生成
これをClaude Code に貼るだけで、このSkillが自動発動します。
📖 Claude が読む原文 SKILL.md(中身を展開)
この本文は AI(Claude)が読むための原文(英語または中国語)です。日本語訳は順次追加中。
SGLang-Diffusion Video Generation
Generate videos via a local SGLang-Diffusion server's OpenAI-compatible API.
Video generation is asynchronous and takes several minutes. The script handles submission, polling, and download automatically.
Prerequisites
- SGLang-Diffusion server running a video model (default:
http://127.0.0.1:30000) - Supported models: Wan2.2-T2V, Wan2.2-I2V, FastWan, Hunyuan
- If the server was started with
--api-key, setSGLANG_DIFFUSION_API_KEYenv var
Generate a video
python3 {baseDir}/scripts/generate_video.py --prompt "a curious raccoon exploring a garden"
Useful flags
python3 {baseDir}/scripts/generate_video.py --prompt "ocean waves at sunset" --size 1280x720
python3 {baseDir}/scripts/generate_video.py --prompt "city timelapse" --negative-prompt "blurry, low quality"
python3 {baseDir}/scripts/generate_video.py --prompt "dancing robot" --steps 50 --guidance-scale 7.5 --seed 42
python3 {baseDir}/scripts/generate_video.py --prompt "flying through clouds" --seconds 8 --fps 24 --out ./my-video.mp4
python3 {baseDir}/scripts/generate_video.py --prompt "flying through clouds" --server http://192.168.1.100:30000 --out ./my-video.mp4
python3 {baseDir}/scripts/generate_video.py --prompt "cat playing" --poll-interval 15 --timeout 1800
python3 {baseDir}/scripts/generate_video.py --prompt "animate this scene" --input-image /tmp/scene.png
API key (optional)
Only needed if the SGLang-Diffusion server was started with --api-key.
Set SGLANG_DIFFUSION_API_KEY, or pass --api-key directly:
python3 {baseDir}/scripts/generate_video.py --prompt "hello" --api-key sk-my-key
Or configure in ~/.openclaw/openclaw.json:
{
skills: {
"sglang-diffusion-video": {
env: { SGLANG_DIFFUSION_API_KEY: "sk-my-key" },
},
},
}
Notes
- The script prints a
MEDIA:line for OpenClaw to auto-attach on supported chat providers. - Output defaults to timestamped MP4 in
/tmp/. - Video generation typically takes 5-15 minutes depending on GPU and model size.
- Do not read the video back; report the saved path only.
同梱ファイル
※ ZIPに含まれるファイル一覧。`SKILL.md` 本体に加え、参考資料・サンプル・スクリプトが入っている場合があります。
- 📄 SKILL.md (2,704 bytes)
- 📎 scripts/generate_video.py (8,809 bytes)