Stable Diffusionのcheckpoint(ckpt)とは?アニメ系おすすめモデルや導入方法

Stable Diffusionのcheckpoint(ckpt)とは?アニメ系おすすめモデルや導入方法

Stable Diffusionでは、checkpointを使って様々なモデルの画像を生成することができます。

checkpointの仕組みを理解して使いこなすことで、思い通りの画像を生成することができるようになります。

この記事では、Stable Diffusionのcheckpointの特徴と利用方法についてを解説しながら、おすすめモデルを紹介します。

目次

Stable Diffusionのcheckpointとは

AIイラストネモフィラと美少女

Stable Diffusionのcheckpointとは、生成された画像の特徴を学習した内容を保存したデータを指します。

checkpointは、ファイル名「ckpt」と略され、ダウンロードサイトで公開されています。

Stable Diffusionのcheckpointとモデルの違い

Stable Diffusionにおいて「checkpoint」と「モデル」は厳密には異なるものです。

checkpointとモデルの違い
  • Checkpointとは、トレーニング中の学習している最中の一時的なデータを指します。
  • モデルとは、データから決定を行って画像を生成するプロセスそのものを指します。

専門的な仕組みなので、Stable Diffusionを利用する上では特に気にしなくて問題ありません。

Stable Diffusionでアニメ系おすすめのcheckpoint(モデル)

AIイラスト桜と美少女

Stable Diffusionでアニメ系おすすめのcheckpointをいくつか紹介します。

Counterfeit-V3.0

Counterfeit
Counterfeit

「Counterfeit-V3.0」は、アニメ系美少女モデルを生成できるモデルです。

服装からアイテムまで細かい設定に対応できるようになっています。

また、人物だけでなく、風景や景色の生成においても高く評価されています。

Counterfeit-V3.0
https://civitai.com/models/4468/counterfeit-v30

blue_pencil-XL

blue_pencil
blue_pencil

「blue_pencil-XL」は、SDXL 1.0ベースにしたアニメ・イラストに特化したマージモデルです。

非常に多くのモデル数を学習し、バージョンアップを繰り返しています。

アニメイラスト以外にもリアルに近い2.5次元の画像も生成可能です。

blue_pencil-XL
https://civitai.com/models/119012/bluepencil-xl

Reproduction

Reproduction
Reproduction

「Reproduction」は、リアル寄りからアニメ寄りまで幅広い画風の生成が可能なモデルです。

全体的に淡く柔らかいタッチが特徴です。

Reproduction
https://civitai.com/models/118729/reproduction-or-sdxl

Stable Diffusionのcheckpoint導入方法

煌めきのイメージの見出し画像

Stable Diffusionのcheckpoint導入方法は、モデルファイルを提供しているサイトからダウンロードして、ローカルフォルダに保存します。

Hugging FaceとCivitaiのサイトで提供者の説明を読んで好みのcheckpointをダウンロードしましょう。

Hugging Faceの場合

ダウンロードしたいcheckpointの「Files and versions」タブに移動後、ページ下部の「○○.safetensors」を「download」ボタンをクリックしてダウンロードします。

ダウンロードしたモデルデータの拡張子は、「.safetensors」もしくは「.ckpt」で表示されています。

Hugging Face
(出典:huggingface.co)
Civitaiの場合

サイトにユーザー登録してから、ダウンロードしたいcheckpointの「.safetensors」ファイルをダウンロードします。

Civitai
(出典:civitai.com)

詳しいcheckpoint導入方法は下記の記事でも紹介しています。

Stable Diffusionモデルの使い方

ダウンロードした「○○.safetensors」を、Stable Diffusion「models」>「Stable-diffusion」の順で開き、「Stable-diffusion」の中にファイルを配置します。

Hugging Face

その後、Stable Diffusion Web UIを開き、画面左上の「checkpoint」と書かれている部分の下にある「▼」から選択し、モデルを切り替えることで適用します。

Stable Diffusion Web UI
(出典:Stable Diffusion Web UI)

Stable Diffusionのcheckpointを使ったマージモデルの作り方

イラストイメージの見出し画像

Stable Diffusion Web UIでは、複数のcheckpointを組み合わせてカスタムマージモデルを作成することができます。

マージとは複数のものを「結合する・融合する」という意味です。

自分用のモデルをカスタマイズできるので、画風やスタイルを固定することができます。

マージモデルの作成手順

下記のステップで進めて、Stable Diffusionで自分好みのマージモデルを作成してみましょう。

STEP
マージするcheckpointモデルを決める

Hugging FaceやCivitaiで提供されているcheckpointモデルファイルを最低2つ選びます。

モデルに制限はなく、実写系モデル×アニメ・イラスト系モデルの組み合わせなどでも問題ありません。

Checkpoint Mergerのタブから生成画面に切り替えます

Stable Diffusion Web UI
(出典:Stable Diffusion Web UI)
STEP
checkpointモデルをマージ

checkpointモデルを2つ選択し、新しく作成するモデルに名前を付けます。

今回は「afterrealxl」と「reproductionSDXL」の2つのモデルを例にしてマージしていきます。

Stable Diffusion Web UI
(出典:Stable Diffusion Web UI)

「float16で保存」は、作成後のモデルファイルを軽量化する機能なのでチェックを入れておきます。

「コンフィグをコピー」を「しない」にチェックを入れます。

その他の項目はデフォルト値で「マージボタン」を押して開始します。

STEP
完成

新しいcheckpointモデルがセーブされれば完了です。

Stable Diffusion Web UI
(出典:Stable Diffusion Web UI)

マージモデルを使った画像の比較

実際にマージしたモデルを使って生成した画像を比較してみます。

artMastersSketch

artMastersSketch

「artMastersSketch」は、スケッチ風の素材を学習したモデルです。

生成される画像は、テーマをキャンバスにスケッチした画風になります。

picxReal_10

picxReal_10

「picxReal_10」は、リアルフォトの素材を基にしたモデルです。

生成される画像は、毛並みまで細かく描かれています。

artpic(合成比率50%マージ後)

「artMastersSketch」と「picxReal_10」2つのモデルをマージさせるとリアルなスケッチ画像が生成されます。

artpic

少し色味が付いた画像が生成されました。

Stable Diffusionを快適に使うならクラウドGPU!

Stable Diffusionでcheckpointを快適に使いこなすには、16G以上のVRAMが推奨されています。

PCで利用する場合はグラボの増設やPCの買い替えまで必要となることもあります。

クラウドGPUを使えば、推奨環境を一切気にすることなく快適にStable Diffusionが利用できるのでおすすめです。

GPUSOROBAN
GPUSOROBAN

GPUSOROBANは、高性能なGPU「NVIDIA A4000 16GB」を業界最安値の1時間50円で使用することができます。

さらに、クラウドGPUを利用しない時は停止にしておくことで、停止中の料金はかかりません。

クラウドGPUを使えばいつでもStable Diffusionの性能をフルに引き出すことができるので、理想の環境に近づけることができます。

\快適に生成AI!1時間50円~/

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUB編集部からのお知らせ

無料ウェビナーのお知らせ

ソフトバンクSarashinaウェビナー

日本語LLM「Sarashina」& OCR機能「Phi-3 Vision」の 無料オンラインウェビナー!

開催日時:
2024年7月24日(水) 14:00~15:00

内容:

  • 「Sarashina」や「Phi-3 Vision」の概要と使い方の紹介
  • 生成AI開発の強い味方「GPUSOROBAN」の活用方法

このウェビナーでは、ソフトバンクの日本語の強いの大規模言語モデル「Sarashina」の使い方や、実際にどのように使えるかを具体的に紹介します。

また、画像からテキストを抽出するOCR機能を簡単に作成できる「Phi-3 Vision」の使い方もデモを交えてお見せします。

生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

こんな方におすすめ!

  • 最新のAI技術やトレンドに興味がある方
  • AI開発に携わっている方
  • 生成AIの実用的な活用方法を学びたい方
  • 新しいツールや技術を積極的に取り入れたい方

\参加申し込みはこちら!/

この記事を書いた人

EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

目次