「HunyuanVideo」ローカル環境の使い方! ComfyUIで動画生成AIに挑戦

「HunyuanVideo」ローカル環境の使い方! ComfyUIで動画生成AIに挑戦

「HunyuanVideo」は、130億ものパラメータを持つ高性能なオープンソース動画生成AIです。

HunyuanVideoを使えば、簡単なテキストプロンプトで高品質な動画を生成できます。

この記事では、初心者向けにHunyuanVideoの概要とComfyUIを使ったローカル環境での使い方をわかりやすく解説します。

リリース記念、2,000Ptプレゼント!

目次

HunyuanVideoとは?

HunyuanVideo_top
(出典:tencent.com)

HunyuanVideoは、簡単なテキストプロンプトから動画を生成できる、Tencentの最新AIモデルです。

例えば「花が咲く様子をゆっくり映した動画」や「街角の夕暮れ風景」といった簡単な文章を入力するだけで、それをヒントにイメージ通りの動画を作成できます。

HunyuanVideoの大きな特徴は下記の3つです。

HunyuanVideoの特徴
  • マルチモーダルLLMによる高品質な動画生成
  • 「統合型画像・動画生成アーキテクチャ」が統一された仕組み
  • 高い圧縮率:進化した3D VAEモデル!

マルチモーダルLLMによる高品質な動画生成

HunyuanVideo_1
(出典:tencent.com)

HunyuanVideoには、マルチモーダルLLMが採用することで、従来を超える高品質な動画生成を実現しています。

このモデルは、テキストプロンプトを大規模言語モデルでエンコードし、その結果を条件として活用します。

その条件を基に、因果的な3D VAEを通じて圧縮された潜在空間において、時空間的なトレーニングを実施します。

さらに、ガウスノイズと条件を入力として利用し、生成された潜在出力を3D VAEデコーダで画像や動画にデコードします。

この高度な技術により、テキストプロンプトを入力するだけで、視覚的にも意味的にも優れた動画を簡単に作成することが可能です。

「統合型画像・動画生成アーキテクチャ」が統一された仕組み

HunyuanVideo_2
(出典:tencent.com)

HunyuanVideoは、Transformer設計とFull Attentionメカニズムを用いて、画像と動画の統一生成を行います。

動画生成には「デュアルストリームからシングルストリーム」へのハイブリッドモデルを採用しています。

  • デュアルストリームフェーズ:動画とテキストのトークンをそれぞれ独立したTransformerブロックで処理します。このフェーズでは、各モダリティ(動画とテキスト)の特性に応じた最適な調整メカニズムを学習します。
  • シングルストリームフェーズ:動画とテキストのトークンを結合し、次のTransformerブロックでマルチモーダル情報を効果的に融合します。

この設計により、視覚情報(動画)と意味情報(テキスト)の複雑な相互作用を捉え、モデル全体の性能を向上させています。

高い圧縮率:進化した3D VAEモデル!

HunyuanVideo_3
(出典:tencent.com)

HunyuanVideoは、CausalConv3Dを用いた進化した3D VAEをトレーニングして、ピクセル空間の動画や画像を圧縮した潜在空間に変換します。

圧縮率は、動画の長さが4、空間が8、チャンネル数が16で設定されています。

これにより、後続の拡散トランスフォーマーモデルで扱うトークンの数を大幅に削減し、元の解像度とフレームレートで動画をトレーニングすることが実現しています。

HunyuanVideo ComfyUIでの始め方・使い方

見出し画像

ここでは、「ComfyUI」を使ったローカル環境での「HunyuanVideo」の始め方から使い方まで紹介します。

STEP
HunyuanVideoのプロジェクトをインストール

HunyuanVideoは、多くのGPUパワーが必要になりますので、余裕をもって準備をしておきましょう。

最初にHunyuanVideo専用の環境を設定します。

HunyuanVideoは、Python、PyTorch、CUDAのバージョンに推奨設定があります。

同じPC内で異なるプログラムのバージョンを利用するには、ソフト専用の環境を作ります。そうすることでパッケージの競合を防ぐことができます。

ここでは、conda環境を利用して整えます。

下記のコマンドを入力して環境を新規で構築します。

conda create -n hunyuanvideo python=3.10.9
conda activate hunyuanvideo
pip install torch==2.5.1+cu118 torchvision --extra-index-url https://download.pytorch.org/whl/cu118

環境の設定が完了したらデータのインストールに進みます。

ComfyUI」を開き、起動に必要な追加データを入手します。

cd ComfyUI
pip install -r requirements.txt

ComfyUI」>「custom_nodes」を開き、下記のコマンドを入力してComfyUI用のHunyuanVideoプロジェクトをインストールします。

cd ComfyUI/custom_nodes
git clone https://github.com/kijai/ComfyUI-HunyuanVideoWrapper.git
STEP
学習データを入手する

次に、動画を生成するためのモデルデータを入手します。

動画生成に必要なモデルデータは下記の4つです。

  • 動画のモデルデータ
  • VAE
  • LLM
  • CLIP

動画のモデルデータ

動画のモデルデータをHugging Faceからダウンロードします。

  • hunyuan_video_720_cfgdistill_bf16.safetensors(25.6 GB)
  • hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors(13.2 GB)

最初は軽量版の「hunyuan_video_720_cfgdistill_fp8_e4m3fn.safetensors」を使用します。

ComfyUI」>「models」>「diffusion_models」を開き、下記のコマンドを入力して動画のモデルデータをダウンロードして配置します。

cd ComfyUI/models/diffusion_models
wget https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_FastVideo_720_fp8_e4m3fn.safetensors

VAE

次にVAEのモデルデータをHugging Faceからダウンロードします。

  • hunyuan_video_vae_bf16.safetensors(493 MB)
  • hunyuan_video_vae_fp32.safetensors(986 MB)

ComfyUI」>「models」>「vae」を開き、下記のコマンドを入力してVAEのモデルデータをダウンロードして配置します。

cd ComfyUI/models/vae
wget https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_vae_fp32.safetensors
wget https://huggingface.co/Kijai/HunyuanVideo_comfy/blob/main/hunyuan_video_vae_bf16.safetensors

LLM

次にLLMのモデルデータをHugging Faceから「llava-llama-3-8b-text-encoder-tokenizer」をダウンロードします。

  • llava-llama-3-8b-text-encoder-tokenizer(約16GB)

ComfyUI」>「models」>「LLM」を開き、下記のコマンドを入力してLLMのモデルデータフォルダをダウンロードして配置します。

cd ComfyUI/models/LLM
git clone https://huggingface.co/Kijai/llava-llama-3-8b-text-encoder-tokenizer

CLIP

最後にCLIPデータをHugging Faceから「clip-vit-large-patch14」をダウンロードします。

  • clip-vit-large-patch14(約7GB)

ComfyUI」>「models」>「clip」を開き、下記のコマンドを入力してCLIPデータフォルダをダウンロードして配置します。

cd ComfyUI/models/clip
git clone https://huggingface.co/openai/clip-vit-large-patch14
STEP
「ComfyUI」を起動してワークフローを開く

今回は公式で配布されているテキストから動画を生成できるワークフローを使用します。

ワークフローデータは、公式に公開されているサンプルファイルをダウンロードして使用します。

(出典:GitHub)

導入前に「ComfyUI」を起動して最新版に更新しておきましょう。

ダウンロードしたワークフローデータ(hunyuanvideo_t2v.json)をComfyUIの画面にドラッグ&ドロップで読み込みます。

ノードが正常に反映されているか確認します。

STEP
パラメータを設定して生成開始!

再起動後、赤いノードがないことを確認して生成を開始します。

ComfyUIの生成開始画面で、各種パラメータを変更していきます。

HunyuanVideo VAE Loader

・model_nameにhunyuan_video_vae_bf16.safetensors
・precisionにfp16

を選択します。

HunyuanVideo Model Loader
・quanlizationを「disabled」
・load deviceを「main_device」
・attention_modeを「comfy」

に設定します。

HunyuanVideo TextEncode

・prompt_templateに「video」を選択します。

その他のパラメータはデフォルトのままで問題ありません。

画面上部の▷Queueボタンの右側に数字を入力する欄あるので生成したい動画の本数を指定します。

その後「Queue」ボタンをクリックして生成を開始します。

使用したプロンプト

(masterpiece, best quality, high quality, highres, ultra-detailed),(8K,top-quality:1.2),anime,ultra-detailliert, (1boy:1.4), solo, silver hair,upper body, (smiling:1.2), looking at viewer, walking towards the camera

HunyuanVideo(ComfyUI)で生成した動画

スポンサーリンク

HunyuanVideoの料金プランと商用利用は?

料金イメージの見出し画像

HunyuanVideoの料金プランと商用利用に関して紹介します。

HunyuanVideoの公式プロジェクトはApache 2.0 ライセンスでリリースされていて、自由にコードを利用することができます。

Tencent Hunyuan Community License Agreementによると、モデルに関する規約は以下の通りです。

1.改変と派生物
・モデルの改変は可能ですが、改変後のモデルは「派生物」として扱われます。
・改変内容については、明確に「改変したこと」を示す必要があります。
・改変したモデルや派生物をTencent Hunyuan以外のAIモデルで使用することは禁止されています。

2.配布
・モデルやその派生物を配布することは可能です。
・配布する際には、第三者にこのライセンス契約のコピーを提供しなければなりません。
・改変したファイルには必ず「改変した」ことを明示する必要があります。
・配布物には、「Tencent HunyuanはTencent Hunyuan Community License Agreementの下でライセンスされています」というテキストファイル(Notice)を含める必要があります。

これらのポイントを守ることで、ライセンスの条件に従ってモデルを使用および配布することができます。

HunyuanVideoの商用利用は?

Tencent Hunyuan Community License Agreementによると、商用利用は特許使用以外可能とコメントされています。

例外として月間のサービス利用者数が合計で1億人を超える場合、Tencentからライセンスを取得する必要があります。

また、Tencent Hunyuan Worksを商用プロダクトに利用する場合、「Powered by Tencent Hunyuan」の記載が推奨されています。

概要は以下の通りです。

「Tencent Hunyuan Community License Agreement」
https://huggingface.co/tencent/Tencent-Hunyuan-Large/blob/main/LICENSE.txt

HunyuanVideoのような動画生成AIにはクラウドGPUがおすすめ

快適のイメージ見出し画像

HunyuanVideoをスムーズに利用するには、高スペックなパソコンが必要です。

ただし、HunyuanVideoを快適に利用できるような高性能なパソコンは、ほとんどが30万円以上と高額になります。

コストを抑えたい方へ:クラウドGPUの利用がおすすめ

クラウドGPUとは、インターネット上で高性能なパソコンを借りることができるサービスです。これにより、最新の高性能GPUを手軽に利用することができます。

クラウドGPUのメリット

  • コスト削減:高額なGPUを購入する必要がなく、使った分だけ支払い
  • 高性能:最新の高性能GPUを利用できるため、高品質な画像生成が可能
  • 柔軟性:必要なときに必要なだけ使えるので便利

HunyuanVideoを使いこなして動画生成AIをマスターしよう!

今回は、Tencentが公開した動画生成AI「HunyuanVideo」の使い方について紹介しました。

HunyuanVideoは、従来の動画生成サービスと比較して、最も最先端で使いやすいプロジェクトです。

無料で利用できる動画生成AIのオープンソースの中でトップクラスなので、このチャンスに高性能ツールで動画生成を極めてみましょう。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    RAG進化のさらに先へ!自立型AIエージェント ウェビナー【12/25無料開催】

    RAG進化のさらに先へ! 大好評につきRAGシリーズ第3弾が開催決定!

    開催日時:
    2024年12月25日(水) 14:00~15:00

    内容:

    • RAGの精度を向上させる「自律型AIエージェント」のデモ
    • 生成AI開発の強い味方「GPUSOROBAN」の活用方法

    このウェビナーでは、オープンソース「LangGraph」で構築したAIエージェントの使い方や、デモを紹介します。

    生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • 自律型AIエージェントに興味がある方
    • RAGの高度化を検討しているエンジニアや開発者
    • 日本語のローカルLLMの利用を検討している方
    • GPUリソースに課題を感じている方

    \簡単1分で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次