【Ollama-OpenWebUI】ローカルLLMをChatGPT風に使う!

Ollamaの使い方!ローカル環境でLLMを動かす

Ollama-OpenWebUIは、ChatGPTのようなインターフェイスでローカルLLMが使える無料のツールです

Ollamaを使えば、DeepSeek-R1やLlamaなどの人気LLMをローカル環境で動かすことができます。

この記事では、Ollama-OpenWebUIの環境構築からモデルを使ったテキスト生成の方法まで紹介します。

2/25開催の無料ウェビナー!

目次

Ollama-OpenWebUIとは

テキスト生成

Ollamaは、ローカル環境でLLMモデルを動かすことができる無料のツールです。

DeepSeek-R1やLlamaなど人気モデルをダウンロードして、APIを使わずにLLMをローカルで実行できます。

さらにOpenWebUIを併用することで、ChatGPTのような分かりやすいインターフェイスが利用できます。

OllamaをPythonで使用する方法は?

Ollama-OpenWebUIの実行環境

見出し画像

LLMのモデルを使う際に、GPUが必要になります。

この記事では、次のようなGPUを搭載した環境を用意しています。

  • GPU:NVIDIA A100
  • GPUメモリ(VRAM:80GB)
  • OS:Ubuntu 22.04LTS

WindowsにUbuntuをインストールするには?

Ollama-OpenWebUIの環境構築

見出し画像

この記事では、OllamaとOpenWebUIの2つのDockerコンテナを使って構築します。

Ollamaはモデルによるテキスト生成を行い、OpenWebUIはインターフェースを提供する役割になります。

Dockerの詳しい使い方を解説!

STEP
docker-compose.ymlファイルの作成

docker-compose.ymlを作成します。

mkdir ollama
cd ollama
nano docker-compose.yml

開いたdocker-compose.ymlファイルに以下の記述をコピーして貼りつけます。

services:
  ollama:
    image: ollama/ollama
    runtime: nvidia
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - .:/app/ollama
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "8080:8080"
    volumes:
      - .:/app/open_webui
    extra_hosts:
      - "host.docker.internal:host-gateway"

volumes:
  ollama:
  open-webui:

[Ctrl + S]キーで変更内容を保存し、[Ctrl + X]キーで編集モードから抜けます。

STEP
Ollama-OpenWebUIの起動

docker-compose.ymlの記述をもとに、Dockerコンテナを構築して起動します。    

docker compose up

コンテナが起動したら、ローカルPCの「ブラウザの検索窓」に以下のURLを入力し、Enterを押すとOllamaの画面が表示されます。

http://localhost:8080/

この記事では、ローカルポート8080を使用してOllamaを起動しています。

STEP
Ollama-OpenWebUIにログイン

Ollama-OpenWebUIの画面に遷移したら、「Get Started」をクリックします。

openwebui

「名前」「メールアドレス」「パスワード」を設定し、「Create Admin Account」をクリックすると、ログインが完了です。

openwebui
STEP
日本語の設定

Ollamaにモデルを設定していきます。

右下の[丸い]アイコンをクリックし、「Settings」を開きます。

openwebui

サイドバーから「General」を選択し、「Language」のプルダウンから「Japanese(日本語)」を選択します。

openwebui

「システムプロンプト」に「あなたは日本語で回答するアシスタントです」と入力し、「保存ボタン」を押します。

openwebui

システムプロンプトは、LLMへデフォルトのプロンプトです。自由に設定できます。

STEP
モデルの設定

ヘッダーの「モデルを選択」をクリックし、検索窓に「モデルID」(例:deepseek-r1:32b)を入力し、「Ollama.comから”モデルID”をプル」をクリックすると、モデルのダウンロードが開始します。

openwebui

モデルIDは、Ollama公式サイトから確認ができます。

モデルIDの例
  • deepseek-r1:1.5b
  • deepseek-r1:32b
  • llama3.2
  • llama3.2:1b

モデルのダウンロードが完了すると「モデルが正常にダウンロードされました」と表示されます。

openwebui

ヘッダーの「モデルを選択」をクリックし、ダンロードした「モデルID」(例:deepseek-r1:32b)を選択するとモデルの設定が完了です。

openwebui

Ollama-OpenWebUIで日本語LLMを使うには?

OllamaをPythonで使う方法は?

Ollama-OpenWebUIでテキスト生成

見出し画像

Ollama-OpenWebUIを使ってテキスト生成をしてみます。

「プロンプト」を入力して、「上矢印」ボタンを押すと、LLMが回答を開始します。

openwebui

ChatGPTのような画面で、回答が生成されていることが分かります!

openwebui

Ollama-OpenWebUIで複数のモデルを同時実行する

見出し画像

Ollama-OpenWebUIで複数のモデルを同時に実行してみます。

モデルの性能を比較する際に便利です!

STEP
新しいモデルをダウンロード

ヘッダーから「+」ボタンを押し、「モデルを選択」をクリックします。

検索窓に「モデルID」(例deepseek-r1:14b)を入力し、「Ollama.comから”モデルID”をプル」を選択します。

openwebui
STEP
新しいモデルを選択

モデルのダウンロードが完了したら、「モデルを選択」をクリックし、「モデルID」(例deepseek-r1:14b)を選択します。

openwebui
STEP
複数モデルの実行

「プロンプト」を入力し、「上矢印」ボタンを押します。

openwebui

複数のモデルからテキストが生成されていることが分かります!

openwebui

同じ要領で、3つのモデルでも比較ができます!

生成AI・LLMのコストでお困りなら

GPUのスペック不足で生成AIの開発が思うように進まないことはありませんか?

そんなときには、高性能なGPUをリーズナブルな価格で使えるGPUクラウドサービスがおすすめです!

GPUSOROBAN
GPUSOROBAN

GPUSOROBANは、高性能GPU「NVIDIA H200」を業界最安級の料金で使用することができます。

NVIDIA H200は、生成AI・LLMの計算にかかる時間を大幅に短縮することが可能です。

クラウドで使えるため、大規模な設備投資の必要がなく、煩雑なサーバー管理からも解放されます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    ウェビナー

    業界を震撼させた革新的LLM「DeepSeek-R1」の使い方を解説する無料ウェビナー!

    開催日時:
    2025年2月25日(火) 11:00~12:00

    内容:

    • DeepSeek-R1のローカル環境での使い方、日本語モデルの解説
    • 業界最安級GPUクラウド「GPUSOROBAN」の紹介・使い方デモ

    このウェビナーでは、「DeepSeek-R1」のデモを交えてGPUクラウドの使い方を紹介します。

    生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • DeepSeek-R1の安全性に不安を感じている方
    • DeepSeek-R1の日本語モデルを使いたい方
    • DeepSeek-R1を使ったRAGの構築方法を知りたい方
    • GPUのコスト、リソースに課題を感じている方

    希望者にはデモで使用したソースコードをプレゼント!

    \簡単30秒で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次