【Sakana AIの浮世絵風モデル】Stable Diffusionでの使い方から商用利用まで

Sakana AI(サカナAI)は、2024年7月22日に浮世絵風画像生成モデル「Evo-Ukiyoe」と浮世絵カラー化モデル「Evo-Nishikie」を公開しました。

「浮世絵風画像生成モデル」とは、浮世絵作品を学習し、驚くほど美しい浮世絵風の画像を生成できるモデルです。

この記事では、Stable Diffusionを使った浮世絵風画像生成モデルの使い方とプロンプトを詳しく解説します。

リリース記念、2,000Ptプレゼント!

目次

Sakana AIの「Evo-Ukiyoe」とは?

浮世絵風

Sakana AIが公開したEvo-Ukiyoeは、Stable Diffusion用のCheckpointであり、テキスト入力を通じて美しい浮世絵風の画像を生成できます。

Evo-Ukiyoeは、研究および教育を目的としてHuggingFaceサイトにモデルとデモが公開されています。

開発元のSakana AIは「歴史や文化を学ぶための新たなコンテンツ作成に利用され、浮世絵に関する興味を増すことにつながり、日本や世界の人々が浮世絵や日本文化に興味を持つきっかけを生み出すことを期待している」とコメントしています。

Stable DiffusionにEvo-Ukiyoeモデルをセットする

Stable Diffusion Web UIを使って、Evo-Ukiyoeモデルで画像を生成する手順を紹介します。

Stable Diffusion Web UIを利用したことがない方は、HuggingFaceのサイトのデモページでも画像生成できます。

STEP
「Evo-Ukiyoe」モデルをダウンロード

HuggingFaceにアクセスし、「Files and versions」タブをクリックします。

「pytorch_lora_weights.safetensors」を「↓ボタン」をクリックしてダウンロードします。

(出典:huggingface.co)

HuggingFaceには、データ以外にライセンスやプログラムの詳しい説明がまとまっています。

STEP
データをセットする

ダウンロードしたファイルをリネームします。

「pytorch_lora_weights.safetensors」のままでも利用できますが、後から何のモデルかわからなくなる可能性があります。

そこで、今回はわかりやすいファイル名「evo_ukiyoe_v1_checkpoint.safetensors」に変更します。

リネームした「evo_ukiyoe_v1_checkpoint.safetensors」を、Stable Diffusion「models」>「Stable-diffusion」の順で開き、「Stable-diffusion」の中にファイルを配置します。

これでセットは完了です。

STEP
Evo-Ukiyoeモデルを選択してプロンプトを入力

Stable Diffusion Web UIからEvo-Ukiyoeモデルを選択します。

プロンプトを入力して画像を生成します。

浮世絵により近い画像を生成するには、桜、富士山、着物、鳥など、浮世絵でよく取り上げられる要素をプロンプトに含めると効果的です

一方、江戸時代に存在しないもの、例えばパソコンやハンバーガーなども生成はできますが、学習データに存在しないものを浮世絵風に生成することは難しく、全体として浮世絵らしくない画像が生成されることがあります。

使用したプロンプト

cat,walking,ukiyoe

STEP
生成完了!

見事に浮世絵風の画像が生成されました。

単純なプロンプトですが細部までしっかり絵が構成されています。

Evo-Ukiyoeで有効なプロンプト

トリガーワードプロンプト
bird
富士山fujisan
着物kimono
oni
samurai
歌舞伎役者kabuki actor

Evo-Ukiyoeモデルで生成する場合、専用の単語が必要です。

こちらで紹介するテキストプロンプト以外にも、古くからある和風のワードは生成に対応しやすくなっています。

bird

富士山

fujisan

着物

kimono

oni

samurai

歌舞伎役者

kabuki actor

Sakana AIの「Evo-Nishikie」とは?

Sakana AIが公開したEvo-Nishikieは、Stable Diffusionのimg2img用の浮世絵風カラー生成モデルです。

このモデルを使用すると、浮世絵の画像にカラーを追加してカラーパターンを作成したり、ラフに対して浮世絵風の色塗りをしたりできます。

Evo-Nishikieも、Evo-Ukiyoe同様に研究および教育を目的にHuggingFaceサイト上でモデルとデモが公開されています。

Stable DiffusionのControlNetにEvo-Nishikieをセットする

Evo-Nishikieは、Stable DiffusionのControlNet「inpaint」に対応しています。

入力したラフに対し、プロンプトに沿って浮世絵風に変換した画像を新たに生成します。

Stable Diffusion Web UIを利用したことがない方は、HuggingFaceのサイトのデモページでも画像生成できます。

STEP
「Evo-Nishikie」モデルをダウンロード

HuggingFaceにアクセスし、「Files and versions」タブを開きます。

diffusion_pytorch_model.safetensors」を「↓ボタン」をクリックしてダウンロードします。

(出典:huggingface.co)
STEP
データをセットする

ダウンロードしたファイルをリネームします。

「diffusion_pytorch_model.safetensors」のままでも利用できますが、後から何のモデルかわからなくなる可能性があります。

そこで、今回はわかりやすいファイル名「evo_Nishikie_v1_inpaint.safetensors」に変更します。

リネームした「evo_Nishikie_v1_inpaint.safetensors」を、Stable Diffusion「models」>「ControlNet」の順で開き、「ControlNet」の中にファイルを配置します。

これでデータのセットは完了です。

STEP
ControlNet内のinpaintでNishikieモデルを選択

Stable Diffusion Web UIからimg2imgタブを開いて、最下部にあるControlNetのパネルを開きます。

※ControlNetは拡張機能なので、実装していない場合は別途インストールが必要です。

inpaintを選択して素材画像を読み込み、ダウンロードしたNishikieモデルを選択します。

STEP
画像生成完了

ControlNetの設定が完了したらプロンプト入力します。

着色に指定がなければプロンプト欄は空欄で問題ありません。

ラフ

Base

着色パターン弱

ノイズ除去強度: 0.4

着色パターン強

ノイズ除去強度: 0.65

見事に浮世絵風の画像が生成されました。

ノイズ除去強度(Denoising strength)で、着色の度合いを調整できます。

Sakana AIの浮世絵風モデルの商用利用について

見出し画像

Sakana AIのモデル使用ライセンスに関しては、商用利用は想定されていません。

Sakana AIは、「得られた結果に関わらず、本モデルの使用から生じる直接的、間接的、特別、偶発的、結果的な損害、または損失について責任を負わない。」としています。

Stable Diffusionで作成されたイメージは、一般的に「CC0 1.0 Universal Public Domain Dedication」に該当すると定義されています。

この定義は、商業利用を否定しておらず、著作権に関しては地域によって異なると解釈することができます。

Sakana AIの浮世絵風モデルを使いこなして新たなジャンルを切り拓こう!

快適のイメージ見出し画像

今回は、Sakana AIがリリースした「浮世絵風画像生成モデル」の使い方について紹介しました。

使い方次第で新たな芸術ジャンルをAIで作り出せるモデルです。

Stable Diffusionを使用するのにスペックの高いパソコンが用意できない場合は、動作が遅くなることがあります。

効率的にStable Diffusionで画像を生成するには、16GB以上のVRAMが搭載されたパソコンが必要ですが、ほとんどが30万円以上と高額です。

コストを抑えたい方へ:クラウドGPUの利用がおすすめ

クラウドGPUとは、インターネット上で高性能なパソコンを借りることができるサービスで、最新の高性能GPUを手軽に利用することが可能です。

クラウドGPUのメリット

  • コスト削減:高額なGPUを購入する必要がなく、使用した分だけの支払い
  • 高性能:最新の高性能GPUを利用できるため、高品質な画像生成が可能
  • 柔軟性:必要なときに必要なだけ使えるので便利

こんな人におすすめ

  • 少ない予算でStable Diffusionを快適に使いたい人
  • 自分のパソコンの性能が不足していると感じる人
  • 常に最新の高性能GPUを使いたい人

GPUSOROBAN

GPUSOROBAN

GPUSOROBANは、高性能なGPU「NVIDIA A4000 16GB」を業界最安値の1時間50円で使用することができます。

さらに、クラウドGPUを利用しない時は停止にしておくことで、停止中の料金はかかりません。

クラウドGPUを使えばいつでもStable Diffusionの性能をフルに引き出すことができるので、理想の環境に近づけることができます。

\快適に生成AI!1時間50円~/

Stable Diffusionが快適に使えるおすすめのパソコンやグラボに関しては下記の記事で紹介しています。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUB編集部からのお知らせ

無料ウェビナーのお知らせ

【9/25開催 無料ウェビナー】最強LLM「Llama3.1」の使い方と日本語の追加学習!

4050億パラメータを持つ最強のLLM「Llama3.1」の無料オンラインウェビナー!

開催日時:
2024年9月25日(水) 14:00~15:00

内容:

  • 「Llama3.1」の概要と日本語対応の紹介
  • 生成AI開発の強い味方「GPUSOROBAN」の活用方法

このウェビナーでは、Meta社のLLM「Llama3.1」の使い方や、日本語モデルを紹介します。

生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

こんな方におすすめ!

  • 日本語LLMの利用を検討している方
  • AI開発に携わっている方
  • 最新のAI技術やトレンドに興味がある方
  • GPUスペック不足に悩んでいる方

\簡単1分で申し込み!/

この記事を書いた人

EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

目次