Ollama-OpenWebUIで日本語LLMを使う方法を徹底解説!

Ollama-OpenWebUIで日本語LLMを使う方法を徹底解説!

Ollama-OpenWebUIは、ChatGPTのインターフェイスでローカルLLMが使えるアプリケーションです。

現在Ollamaで提供されているLLMは、DeepSeekやLlamaなどの海外モデルのみになります。

この記事では、Ollamaに日本語モデルをダウンロードして利用する方法を解説します。

ざっくり言うと

  • Ollamaに日本語LLMをダウンロードして使用する方法が分かる
  • Ollama-OpenWebUIでChatGPTようなインターフェイスを構築

2/25開催の無料ウェビナー!

目次

Ollama-OpenWebUIで日本語LLMは使える?

見出し

Ollama-OpenWebUIは、ChatGPTのインターフェイスでローカルLLMが使えるアプリケーションです。

Ollamaで提供されているLLMは、DeepSeekやLlamaなどの海外モデルのみとなっています。

日本語LLMに関しては、外部からモデルをダウンロードし、Ollamaにセットすることで利用できます。

Ollama-OpenWebUIの環境構築

見出し画像

この記事で用意した実行環境は以下のとおりです。

Ubuntu上でOllamaとOpenWebUI を組み合わせた Docker コンテナを構築します。

Ollama はローカルで LLMを実行できるツール、OpenWebUI は ChatGPT のような対話型インターフェイスを提供するアプリケーションです。

  • GPU:NVIDIA A100 80GB
  • GPUメモリ(VRAM):80GB
  • OS :Ubuntu 22.04
  • Docker

Ollama-OpenWebUIの環境構築を解説!

Ollama-Pythonで日本語LLMを使用する方法は?

Ollama環境に日本語LLMをセットアップ

見出し画像

Ollama-OpenWebUIのセットアップが完了したら、Ollamaのコンテナにログインします。

STEP
LLMのダウンロード

UbuntuのターミナルからDockerコンテナにログインします。

docker exec -it ollama /bin/bash

Dockerコンテナ内で必要なパッケージをインストールします。

apt-get update && apt-get install -y curl nano

DeepSeek-R1の日本語モデルをHuggingFaceからダウンロードします。

curl -L -o cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-Q4_K_M.gguf "https://huggingface.co/mmnga/cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-gguf/resolve/main/cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-Q4_K_M.gguf?download=true"

HuggingFaceでお好みのモデルを無料でダウンロードできます!

STEP
モデルファイルの作成

LLMのモデルがOllama使えるようにプロンプトテンプレートを指定して、モデルを作成します。

モデルファイルを作成して、編集します。

nano Modelfile

開いたモデルファイルに以下のコードをコピペします。

FROM ./cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-Q4_K_M.gguf
TEMPLATE """{{- if .System }}{{ .System }}{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1}}
{{- if eq .Role "user" }}<|User|>{{ .Content }}
{{- else if eq .Role "assistant" }}<|Assistant|>{{ .Content }}{{- if not $last }}<|end▁of▁sentence|>{{- end }}
{{- end }}
{{- if and $last (ne .Role "assistant") }}<|Assistant|>{{- end }}
{{- end }}"""
PARAMETER stop <|begin▁of▁sentence|>
PARAMETER stop <|end▁of▁sentence|>
PARAMETER stop <|User|>
PARAMETER stop <|Assistant|>

コピペ後に「Ctrl + S」で変更を保存し、「Ctrl + X」で編集を終了します。

コードの説明

FROM ./cyberagent-DeepSeek-R1-Distill-Qwen-32B-Japanese-Q4_K_M.gguf

ダウンロードしたモデルのパスが入ります。

TEMPLATE “””{{- if .System }}{{ .System }}{{ end }}…PARAMETER stop <|Assistant|>

モデルで使用するプロンプトテンプレートが入ります。モデルによって記述する内容が異なりますので、ご注意ください。

STEP
Ollamaでモデルを作成

Ollamaにカスタムモデルを登録し、実行できる状態にします。

ollama create cyberagent-deepSeek-r1-32b -f Modelfile
コードの説明

ollama create:新しいローカルモデルを登録するために使います。

cyberagent-deepSeek-r1-32b:作成するモデルの任意の名称を指定します。

-f Modelfile:モデルの設定ファイル(Modelfile)を指定するためのオプション。

successと表示されたら、モデルの登録が完了です!

STEP
Ollama-OpenWebUIを再起動

UbuntuのターミナルからOllama-OpenWebUIを再起動します。    

docker compose up

コンテナが起動したら、ローカルPCの「ブラウザの検索窓」に以下のURLを入力し、Enterを押すとOpenWebUIの画面が表示されます。

http://localhost:8080/

この記事では、ローカルポート8080を使用してOllamaを起動しています。

Ollama-OpenWebUIで日本語LLMを動かす

見出し画像

Ollama-OpenWebUIの画面を操作して、テキストを生成します。

STEP
ダウンロードしたモデルを選択

ダウンロードしたモデルを選択します。

モデルの選択
STEP
プロンプトを入力

プロンプトを入力して、矢印ボタンを押します。

プロンプト入力
STEP
モデルによる回答の生成

入力したプロンプトに対して、モデルが回答を生成します。

テキスト生成

ダウンロードした日本語LLMでテキスト生成ができています!

Ollama-Pythonで日本語LLMを使用する方法は?

生成AI・LLMのコストでお困りなら

GPUのスペック不足で生成AIの開発が思うように進まないことはありませんか?

そんなときには、高性能なGPUをリーズナブルな価格で使えるGPUクラウドサービスがおすすめです!

GPUSOROBAN
GPUSOROBAN

GPUSOROBANは、生成AI・LLM向けの高速GPUを業界最安級の料金で使用することができます。

インターネット環境さえあれば、クラウド環境のGPUサーバーをすぐに利用可能です。

大規模な設備投資の必要がなく、煩雑なサーバー管理からも解放されます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    ウェビナー

    業界を震撼させた革新的LLM「DeepSeek-R1」の使い方を解説する無料ウェビナー!

    開催日時:
    2025年2月25日(火) 11:00~12:00

    内容:

    • DeepSeek-R1のローカル環境での使い方、日本語モデルの解説
    • 業界最安級GPUクラウド「GPUSOROBAN」の紹介・使い方デモ

    このウェビナーでは、「DeepSeek-R1」のデモを交えてGPUクラウドの使い方を紹介します。

    生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • DeepSeek-R1の安全性に不安を感じている方
    • DeepSeek-R1の日本語モデルを使いたい方
    • DeepSeek-R1を使ったRAGの構築方法を知りたい方
    • GPUのコスト、リソースに課題を感じている方

    希望者にはデモで使用したソースコードをプレゼント!

    \簡単30秒で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次