「Mochi 1」ローカル環境の使い方!ComifyUIで動画生成AIに挑戦

「Mochi 1」ローカル環境の使い方!ComifyUIで動画生成AIに挑戦

Genmo.aiは、動画生成AIモデル「Mochi 1」を2024年10月24日にリリースしました。

Genmo.aiは、AIを活用した動画作成ツールの開発に注力する企業でDreamFusionの開発者やDatabricks、OpenAIの技術アドバイザーが所属しています。

この記事では、「Mochi 1」ローカル環境の使い方を初心者向けに詳しく解説します。

ブラウザで使えるStable Diffusion!

目次

Mochi 1とは?

Genmoトップ
(出典:Genmo.ai)

Mochi 1は、これまでに少なかった大規模なモデルを利用したオープンソースによる動画生成AIです。

テキストからリアルな動きの動画を生成でき、関連性の高い映像を構築することが可能です。

Mochi 1の大きな特徴は、下記の3つです。

Mochi 1の特徴
  • 大規模モデルによる圧倒的な生成パフォーマンス
  • リアルで正確な動きを実現した生成技術
  • ソースコードが公開されている「オープンソース」

大規模モデルによる圧倒的な生成パフォーマンス

Genmo性能
(出典:Genmo.ai)

Mochi 1は、100億の学習パラメータを持つ大規模モデルにより、プロンプトから複雑なシーンを生成します。

ガイドライン適合性はOpenAI DALL-E 3プロトコルに基づくテストにより確認され、Gemini-1.5-Pro-002が使用されました。

プロンプトテキスト指示に対する適応性を高く持ち、より細かく生成への制御が可能です。

リアルで正確な動きを実現した動画生成技術

Mochi 1は、従来の動画、画像、テキストを組み合わせるアプローチではなく、動画データのみでトレーニングされています。

この専用アプローチにより、物理的な動きの品質が大幅に向上しました。

動画生成を成功させ、身体化された AI、ロボット工学、自動運転の解決に役立つ可能性のある世界最高のシミュレーターを構築することが最終的なビジョンであるとGenmoの開発者はコメントしています。

ソースコードが公開されている「オープンソース」

Mochi 1は、オープンソースで利用可能なモデルです。

現在は「リサーチプレビュー」としてApache 2.0 ライセンスでリリースされていて、自由にコードを利用することができます。

また、将来のアップグレードとして高解像度や高度なコンテンツ制御などが計画されています。

Mochi 1 ComifyUIでの始め方・使い方

見出し画像

ここでは、「ComfyUI」上でのMochi 1の始め方から使い方まで紹介します。

STEP
「ComfyUI」を使って生成

Mochi 1は、多くのGPUパワーが必要になりますので、余裕をもって準備をしておきましょう。

今回は軽量化されたComfyUIで使えるプレビュー版をインストールして動画を生成してみます。

まずは「ComfyUI」を最新版に更新して、起動します。

Mochi 1が搭載されたカスタムノードをGitHubからダウンロードしてセットします。

「ComfyUI」での生成に使用するファイルは下記の3つです。

①ComfyUI-MochiWrapper
②ComfyUI-KJNodes
③ComfyUI-VideoHelperSuite

ComfyUI」>「custom_nodes」を開き、フォルダ内で右クリックして「Open Git Bash here」を選択します。

すると次のような「コマンド入力画面」が出てきます。

Genmo_git2

コマンド入力画面で「$」が表示されている行に下記のコマンドを入力します。

git clone https://github.com/kijai/ComfyUI-MochiWrapper.git
git clone https://github.com/kijai/ComfyUI-KJNodes.git
git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite.git

フォルダが3つ作成されれば完了です。

STEP
ワークフローをダウンロード

次に、ノードのパラメータをセットするComfyUI用のワークフローとクリップをダウンロードします。

ComfyUIのワークフローを扱っているサイトOpenArt WorkflowsからMochi 1のワークフローをダウンロードします。

ダウンロードデータは右下にあります。

OpenArt Workflows
(出典:Genmo.ai)

続いて、クリップファイルをHugging Faceからダウンロードします。

t5xxl_fp8_e4m3fn.safetensors (4.89GB)
https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main

ComfyUI」>「models」>「clip」の順で開き、先ほどダウンロードした「t5xxl_fp8_e4m3fn.safetensors 」を配置します。

STEP
ワークフローを設定

データのセットが完了したらComfyUIを起動してMochi 1用のワークフローをセットします。

ダウンロードした画像をComfyUIの画面にドラッグ&ドロップで画像を読み込むと埋め込まれているワークフローデータを表示することができます。

STEP
パラメータを設定して生成開始!

ComfyUIの生成開始画面で、ワークフローのノードが正常に反映されているか確認します。

Load CLIPとPositive Promptを設定します。

Load CLIP
・clip_name1に「t5xxl_fp8_e4m3fn.safetensors」を選択します
・typeに「sd3」を選択します

Positive Prompt

・生成したい動画のプロンプトを入力します。

各種のパラメータやプロンプト以外の入力項目は、入力しなくても問題ありません。

生成は右上の「Queue Prompt」ボタンをクリックします。

使用したプロンプト

A cat walks around the house bipedally

動画をクリックするとそのまま再生でき、生成した動画は右クリックで保存できます。

スポンサーリンク

Mochi 1の料金プランと商用利用は?

料金イメージの見出し画像

Mochi 1の料金プランと商用利用に関して紹介します。

Mochi 1は、Apache 2.0ライセンスのもと無償でソースコードが公開されており、改良や再配布が可能です。

Mochi 1の商用利用は?

Mochi 1公式ブログでは、「個人使用および商用使用に自由に利用できます」とコメントされています。

さらに、Genmoが提供するプレイグラウンド(Web上での試用環境)も無料で利用可能です。

概要は以下の通りです。

動画生成AI「Mochi 1」公式ブログ
https://www.genmo.ai/blog

Mochi 1を使いこなして生成AIをマスターしよう!

今回は、Genmoが公開した動画生成AIの最新モデル「Mochi 1」の使い方について紹介しました。

Mochi 1は、従来の動画生成サービスと比較して、最も最先端で質が高い動画を生成することができます!

無料で利用できる動画生成AIのオープンソースサービスの中でトップクラスなので、このチャンスに高性能ツールで動画生成を極めてみましょう。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    11/27ウェビナー

    RAG×日本語LLMの無料オンラインウェビナー第2弾!

    開催日時:
    2024年11月27日(水) 14:00~15:00

    内容:

    • 「LlamaIndex」と「Llama-3.1-Swallow」でRAG環境を構築
    • 生成AI開発の強い味方「GPUSOROBAN」の活用方法

    このウェビナーでは、オープンソース「LlamaIndex」で構築したRAGの使い方や、デモを紹介します。

    生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • 日本語LLMの利用を検討している方
    • AI開発に携わっている方
    • 最新のAI技術やトレンドに興味がある方
    • GPUスペック不足に悩んでいる方

    \簡単1分で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次