ComfyUIで動画生成を簡単に!画像からの実践方法を解説

ComfyUIで動画生成を簡単に!画像からの実践方法を解説

ComfyUIは、Stable Diffusionでの画像生成以外にも動画を生成できるワークフローがあります。

画像生成同様にComfyUIを利用すれば動画生成に対しても計算資源の節約が可能です。

この記事ではComfyUIで簡単に動画生成を行う方法を解説します。

リリース記念、2,000Ptプレゼント!

目次

ComfyUIの基本的なワークフロー

見出し画像

ComfyUIで使用する基本的なワークフローを紹介します。

基本的には、Stable Diffusionと同様の機能が使えるようになっています。

ComfyUIにインストール方法は、こちらの記事で詳しく解説しています。

テキストから画像に

ComfyUIでテキストから画像を生成する方法は、Stable Diffusionと同じtxt2imgを使います。

プロンプトテキストを入力してモデルを設定し生成を開始します。

デフォルト画面のワークフローは画像生成のセットになっています。

STEP
モデルを選択してプロンプトを入力

最初に、先頭にあるノードのcheckpointを選択します。

テスト生成する場合はプリンストールされているデフォルトのモデルで大丈夫です。

次にモデルの画風に沿ったプロンプトとネガティブプロンプトを入力します。

最後に画像サイズを指定します。

STEP
バッチ回数を入力して生成開始

バッチ回数は生成したい画像の枚数を指します。

場面上部に▷Queueボタンの右側に数字を入力する欄あるので、そこに生成する画像の枚数を指定します。

数値を入力したらQueueボタンをクリックして画像生成を開始します。

生成された画像はSave Imageに表示されます。

セットアップから生成までの解説はこちらの記事で詳しく紹介していいます。

画像から画像に

ComfyUIで画像から画像を生成する方法は、img2imgのワークフローを使います。

img2imgのワークフローは、デフォルトで実装されているテンプレートを読み込みます。

STEP
ワークフローを読み込む

左側のパネルのフォルダアイコンをクリックします。

image to imageのテンプレートをクリックしてワークフローを読み込みます。

STEP
生成情報の入力

①ベース画像を使って生成したい画像のモデルを選択します。

②素材となる画像を#10 Load Image に読み込みます。

③最後にプロンプトとネガティブプロンプトを入力して完了です。

※プロンプトは、素材画像に沿った内容を簡単に入力します。

STEP
バッチ回数を入力して生成開始

バッチ回数とは、生成したい画像の枚数を指します。

場面上部に▷Queueボタンの右側に数字を入力する欄あるので、そこに生成する画像の枚数を指定します。

数値を入力したらQueueボタンをクリックして画像生成を開始します。

生成された画像はSave Imageに表示されます。

ComfyUIで動画生成

見出し画像

ここからは実際に「Wan2.1」を使ってComfyUIで動画生成する方法を解説します。

Wan2.1は、アリババが開発した最先端の動画生成AIです。テキストや画像を入力するだけで、高品質な動画を簡単に生成できます。

下記のステップで実際に動画を生成してみましょう。

STEP
Wan2.1をインストール

ComfyUI」>「custom_nodes」を開き、下記のコマンドを入力してComfyUI用のWan2.1プロジェクトをインストールします。

cd ComfyUI/custom_nodes
git clone https://github.com/kijai/ComfyUI-WanVideoWrapper.git

続いて、依存関係を取り除きます。

cd ComfyUI/custom_nodes/ComfyUI-WanVideoWrapper
pip install -r requirements.txt

STEP
モデルをダウンロード

動画を生成するベースとなるモデルファイルをHugging Faceからダウンロードします。

今回は「Wan2_1-T2V-1_3B_fp8_e4m3fn.safetensors」を使用します。

ダウンロードしたデータは「ComfyUI」>「models」>「 diffusion_models」に格納します。

cd ComfyUI/models/diffusion_models
wget https://huggingface.co/Kijai/WanVideo_comfy/blob/main/Wan2_1-T2V-1_3B_fp8_e4m3fn.safetensors

次にVAEのモデルデータをHugging Faceからダウンロードします。

データは、「wan_2.1_vae.safetensors(254 MB)」を使用します。

ダウンロードしたデータは「ComfyUI」>「models」>「vae」に格納します。

cd ComfyUI/models/vae
wget https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/vae/wan_2.1_vae.safetensors

最後にCLIPデータをHugging Faceからダウンロードします。

  • umt5_xxl_fp8_e4m3fn_scaled.safetensors(6.74GB)

ComfyUI」>「models」>「text_encoders」を開き、下記のコマンドを入力してCLIPデータフォルダにダウンロードして配置します。

cd ComfyUI/models/clip
wget https://huggingface.co/Comfy-Org/Wan_2.1_ComfyUI_repackaged/blob/main/split_files/text_encoders/umt5_xxl_fp8_e4m3fn_scaled.safetensors

STEP
ワークフローをセット

今回は公式で配布されているテキストから動画を生成できるワークフローを使用します。

ワークフローデータは、公式に公開されているサンプルファイルをダウンロードして使用します。

導入前に「ComfyUI」を起動して最新版に更新しておきましょう。

ダウンロードしたワークフローデータ(text_to_video_wan.json)をComfyUIの画面にドラッグ&ドロップで読み込みます。

ノードが正常に反映されているか確認します。

STEP
プロンプトを入力して生成開始!

4ComfyUIの生成開始画面で、各種パラメータを変更していきます。

unet_name

・unet_nameにWan2_1-T2V-1_3B_fp8_e4m3fn.safetensors

を選択します。

clip名
・umt5_xxl_fp8_e4m3fn_scaled.safetensors

に設定します。

vae_name

・wan_2.1_vae.safetensors

を選択します。

その他のパラメータはデフォルトのままで問題ありません。

画面上部の▷Queueボタンの右側に数字を入力する欄あるので生成したい動画の本数を指定します。

その後「Queue」ボタンをクリックして生成を開始します。

使用したプロンプト

青色の猫型ロボットが一生懸命仕事をしている

Wan2.1(ComfyUI)で生成した動画

ComfyUIで動画をアップスケール

見出し画像

ComfyUIで動画を簡単にアップスケール方法を紹介します。

STEP
ワークフローを入手

OpenArtで配布されているアップスケール用のワークフローをダウンロードします。

ComfyUIに読み込んで「CR Upscale Image」のノードを手動でインストールします。

ComfyUI Managerの「Install Missing Custom Nodes」から不足しているノードのプロジェクトをクリックして補完します。

STEP
素材画像を読み込んで数値を設定

拡大したい動画ファイルを読み込んでリサイズしたい大きさを指定します。

その他のパラメーターはデフォルトのままで大丈夫です。

STEP
生成開始

画面上部のQueueボタンの右側に数字を入力する欄あるので生成したい動画の本数を指定します。

その後「Queue」ボタンをクリックして生成を開始します。

しばらくすると拡大された動画が右側のノードに表示されます。

ComfyUIを快適に活用するならクラウドGPUがおすすめ

快適のイメージ見出し画像

ComfyUIを快適に利用するなら、クラウドGPUの利用がおすすめです。

クラウドGPUとは、インターネット上で高性能なパソコンを借りることができるサービスで、最新の高性能GPUを手軽に利用することが可能です。

さらに、クラウドGPUの料金は使用時間に応じて加算されるため、停止すれば料金はかかりません。

クラウドGPUのメリット

  • コスト削減:高額なGPUを購入する必要がなく、使用した分だけの支払い
  • 高性能:最新の高性能GPUを利用できるため、高品質な画像生成が可能
  • 柔軟性:必要なときに必要なだけ使えるので便利

こんな人におすすめ

  • 少ない予算でComfyUIを快適に使いたい人
  • 自分のパソコンの性能が不足していると感じる人
  • 常に最新の高性能GPUを使いたい人

GPUSOROBAN

GPUSOROBAN

GPUSOROBANは、高性能なGPU「NVIDIA A4000 16GB」を業界最安値の1時間50円で使用することができます。

さらに、クラウドGPUを利用しない時は停止にしておくことで、停止中の料金はかかりません。

クラウドGPUを使えばいつでもStable Diffusionの性能をフルに引き出すことができるので、理想の環境に近づけることができます。

\快適に生成AI!1時間50円~/

ComfyUIで動画を生成すればクオリティアップ間違いなし!

現在展開されている動画生成AIは、有料でも短時間で自由が利かないようなサービスが多くあります。

ComfyUIは、ローカルやクラウド環境で自由に動画の生成ができるので、プロンプト次第で高いクオリティの動画を生成することができます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    ウェビナー7/30

    MCP ✕ ローカルLLMで構築するAIエージェント【解説&デモ】

    開催日時:
    2025年7月30日(水) 14:00~15:00

    内容:

    • MCP ✕ ローカルLLMで構築するAIエージェント【解説&デモ】
    • 速さと安さの極み!GPUクラウド「GPUSOROBAN」の紹介・使い方デモ

    本ウェビナーでは、ローカルLLMとMCPを連携させたAIエージェント構築デモを行います。

    生成AIの開発に関心のある方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • MCPの仕組みから実装方法まで知りたい方
    • ローカルLLMでAIエージェントの構築を検討している方
    • AI開発のコストに課題を抱えている方

    希望者にはデモで使用したソースコードをプレゼント!

    \簡単30秒で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次