ソフトバンクの日本語LLM「Sarashina」の使い方を解説!

ソフトバンクの日本語LLM「Sarashina」の使い方を解説!

Sarashinaは、ソフトバンクの子会社のSB Intuitionsが開発した日本語に強いLLMです。

70億・130億・650億パラメータの複数モデルを公開し、いずれも無料で商用利用可能です。

この記事では、Sarashinaの性能から使い方まで紹介します。

7/24開催のウェビナーをお知らせ!

目次

Sarashinaとは

見出し画像

Sarashina(サラシナ)は、ソフトバンクの子会社のSB Intuitionsが開発した日本語に強いLLMです。

Sarashinaは、日本語データを1兆トークンも学習しており、これはMetaが開発したLlama2の日本語学習量の数百倍に相当します。

ざっくり言うと

  • 日本語に強いLLM
  • 70億・130億・650億パラメータの複数モデルを公開
  • 無料で商用利用も可能

Sarashinaのモデル

見出し画像

Sarashinaのモデルには複数の種類があり、「モデルのバージョン」と「パラメータサイズ」で分けられます。

モデルIDモデルのバージョンパラメータサイズ
sbintuitions/sarashina1-7bSarashina170億パラメータ
sbintuitions/sarashina1-13bSarashina1130億パラメータ
sbintuitions/sarashina1-65bSarashina1650億パラメータ
sbintuitions/sarashina2-7bSarashina270億パラメータ
sbintuitions/sarashina2-13bSarashina2130億パラメータ

Sarashina1は日本語のみを学習していますが、Sarashina2は日本語に加えて英語とプログラミングコードも学習しています。

Sarashina1・2の違い

Sarashina1
 学習データ: 日本語
 学習トークン数: 1兆トークン
 語彙サイズ: 51,200
 アーキテクチャ: GPT-NeoX


Sarashina2
 学習データ: 日本語、英語、プログラミングコード(日本語5:英語4:コード1の割合)
 学習トークン数: 2.1兆トークン
 語彙サイズ: 102,400
 アーキテクチャ: Llama2

Sarashinaの性能

見出し画像

日本語評価において標準的な5つの評価セットを使って、モデルの性能を比較しています。

Sarashina2は同程度のパラメータ数のモデルと比較して、高い性能を出しています。

日本語の評価比較
(出典:https://www.sbintuitions.co.jp/news/press/20240614_01/)

Sarashina1-65BはSwallow-70Bには惜しくも及びませんでしたが、学習中のSarashina2-70Bの公開に期待しています!

5つの評価セット

JCommonsenseQA(多肢選択式質問応答)

JEMHopQA(自由記述式質問応答)

NIILC-QA(自由記述式質問応答)

JSQuAD(機械読解)

AI王(自由記述式質問応答)

Sarashinaの商用利用・ライセンス

見出し画像

Sarashinaは、Hugging FaceにおいてMITライセンスをもとに提供されており、無料で商用利用できます。

MITライセンスは、ソフトウェアの配布に使用される非常に寛容なオープンソースライセンスです。

MITライセンスの要点

商用利用:ソフトウェアやコードを商用利用することが完全に許可されています。

改変:ソフトウェアを自由に修正したり改変したりすることができます。

配布:修正したり変更したりしたソフトウェアを自由に配布することができます。

著作権の表示:再配布時にオリジナルの著作権表示とライセンス条項を含める必要があります。

特許利用:特許利用に関する明示的な規定はありません。

Sarashinaの使い方

見出し画像

ここからSarashinaを使ったテキスト生成(推論)について解説していきます。

Sarashinaのファインチューニングの方法については、別の記事で解説しています。

実行環境

この記事で用意した実行環境は以下のとおりです。

  • GPU:NVIDIA A100 80GB
  • GPUメモリ(VRAM):80GB
  • OS :Ubuntu 22.04
  • Docker

Dockerで環境構築

Dockerを使用してSarashinaの環境構築をします

Dockerの使い方は以下の記事をご覧ください。

STEP
Dockerfileの作成

コンテナにインストールするパッケージは以下のとおりです。

CUDA、PyTorch、Transformersはバージョン依存関係によるエラーが起きやすいので、動作検証済のバージョン指定してインストールしています。

パッケージ一覧
  • CUDA:12.1
  • Python:3.10
  • PyTorch:2.2.2
  • transformers:4.41.2
  • accelerate
  • triton
  • sentencepiece

GPU対応のDocker環境を構築する方法については、以下の記事をご覧ください。

Ubuntuのコマンドラインで、Dockerfileを作成します。

mkdir sarashina_inference
cd sarashina_inference
nano Dockerfile

Dockerfileに以下の記述を貼り付けます。

# ベースイメージ(CUDA)の指定
FROM nvidia/cuda:12.1.0-cudnn8-devel-ubuntu22.04

# 必要なパッケージをインストール
RUN apt-get update && apt-get install -y python3-pip python3-venv git nano

# 作業ディレクトリを設定
WORKDIR /app

# アプリケーションコードをコピー
COPY . /app

# Python仮想環境の作成
RUN python3 -m venv /app/.venv

# 仮想環境をアクティベートするコマンドを.bashrcに追加
RUN echo "source /app/.venv/bin/activate" >> /root/.bashrc

# JupyterLabのインストール
RUN /app/.venv/bin/pip install Jupyter jupyterlab

# PyTorchのインストール
RUN /app/.venv/bin/pip install torch==2.2.2 torchvision==0.17.2 torchaudio==2.2.2 triton --index-url https://download.pytorch.org/whl/cu121

# Transformer関連のインストール
RUN /app/.venv/bin/pip install transformers==4.41.2 accelerate sentencepiece protobuf

# コンテナの起動時にbashを実行
CMD ["/bin/bash"]

[Ctrl + S]キーで変更内容を保存し、[Ctrl + X]キーで編集モードから抜けます。

STEP
docker-compose.ymlファイルの作成

docker-compose.ymlでDockerコンテナの設定をします。

docker-compose.ymlのYAMLファイルを作成して開きます。

nano docker-compose.yml

以下のコードをコピーして、YAMLファイルに貼り付けます。

services:
  sarashina_inference:
    build:
      context: .
      dockerfile: Dockerfile
    image: sarashina_inference
    runtime: nvidia
    container_name: sarashina_inference
    ports:
      - "8888:8888"
    volumes:
      - .:/app/sarashina_inference
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    command: >
      bash -c '/app/.venv/bin/jupyter lab --ip="*" --port=8888 --NotebookApp.token="" --NotebookApp.password="" --no-browser --allow-root'

[Ctrl + S]キーで変更内容を保存し、[Ctrl + X]キーで編集モードから抜けます。

STEP
Dockerコンテナを起動

Dockerfileからビルドしてコンテナを起動します。   

docker compose up

 

Dockerの起動後にブラウザの検索窓に”localhost:8888″を入力すると、Jupyter Labをブラウザで表示できます。

localhost:8888

Sarashinaの実装

Dockerコンテナで起動したJupyter Lab上でSarashinaの実装をします。

STEP
ライブラリのインポート

Jupyter Labのコードセルに次のコマンドを実行して、ライブラリをインポートします。

import torch
import transformers
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
STEP
モデルとトークナイザーの設定

Sarashinaのモデルとトークナイザーを読み込みます。

model_id = "sbintuitions/sarashina2-13b"

model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

tokenizer = AutoTokenizer.from_pretrained(
    model_id
)

pipeline = transformers.pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer
)
コードの説明

“sbintuitions/sarashina2-13b”

Sarashinaのモデルタイプを指定します。

AutoModelForCausalLM.from_pretrained()

モデルを読み込みます。

AutoTokenizer.from_pretrained()

トークナイザーを読み込みます。

transformers.pipeline()

テキスト生成のためのパイプラインの設定をします。

モデルIDモデルのバージョンパラメータサイズGPUメモリ使用量
sbintuitions/sarashina1-7bSarashina170億パラメータ16GB
sbintuitions/sarashina1-13bSarashina1130億パラメータ29B
sbintuitions/sarashina1-65bSarashina1650億パラメータ130GB
sbintuitions/sarashina2-7bSarashina270億パラメータ16GB
sbintuitions/sarashina2-13bSarashina2130億パラメータ29GB

モデルを読み込む際にGPUメモリを消費しますので、余裕を持ったGPUメモリをご用意ください。

Sarashinaでテキスト生成

見出し画像

Sarashinaを使って、日本語での質問応答を試してみます。

日本語での質問応答

「香川県のご当地グルメを教えて下さい」というプロンプトを日本語で実行してみます。

prompt = "香川県のご当地グルメを教えて下さい"

output = pipeline(
    prompt,
    max_length=256,
    truncation=True,
    do_sample=True,
    pad_token_id=tokenizer.pad_token_id,
    num_return_sequences=3,
)

print(output[0]['generated_text'])

香川県のご当地グルメを教えて下さい

香川県のご当地グルメを教えて下さい。
A うどんと骨付鳥
うどんと骨付鳥 うどん屋が1つや2つじゃないです本当に多くて迷います! 讃岐うどんなので安いのも魅力ですね。 高松は、うどんマップとか見るとうどん屋の激戦地です。
骨付鳥も、香川発祥のご当地グルメで、丸亀とかのローカルグルメかと思いきや、 今は香川の色々な場所に店が出てて、 香川の友達に、骨付鳥知らないって言ったら、『香川出身ですっけ?』って聞かれました笑
A 香川県はうどん県と言われるだけあり、うどんは有名ですが、骨付鶏肉料理も有名です。
香川県の鶏料理専門店「一鶴(いっかく)」で食べられます。
A うどんです。香川県民みんなが讃岐なのでは?と思います。
ちなみに私の知人の香川県民はさぬき市と高松市の方が多いので、他は分かりません。
A 香川と言えば、うどん以外にないでしょう。骨付き鳥もありますが、香川生まれ香川育ちの私でも食べたことありません。
A さぬきうどんです。
A やはりうどんがいちばん有名ですが、小豆島のそうめん(小豆島手延そうめん)もおすすめですよ!
A もちろん、さぬきうどんです。
「さぬきうどん」と名のつく店は全国にあります。
うどん

一鶴(いっかく)の骨付鳥は、本当に美味しいです!

Sarashinaの事前学習モデルは、指示チューニングを行っていないため、人間の意図に沿った応答を想定されていません。ChatGPTのような形式の応答をするには、別途指示チューニングを行う必要があります。

Sarashinaの指示チューニングの方法は、以下の記事で解説しています。

生成AI・LLMのコストでお困りなら

GPUのスペック不足で生成AIの開発が思うように進まないことはありませんか?

そんなときには、高性能なGPUをリーズナブルな価格で使えるGPUクラウドサービスがおすすめです!

GPUSOROBAN
GPUSOROBAN

GPUSOROBANは、高性能GPU「NVIDIA H100」を業界最安級の料金で使用することができます。

NVIDIA H100は、生成AI・LLMの計算にかかる時間を大幅に短縮することが可能です。

クラウドで使えるため、大規模な設備投資の必要がなく、煩雑なサーバー管理からも解放されます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUB編集部からのお知らせ

無料ウェビナーのお知らせ

ソフトバンクSarashinaウェビナー

日本語LLM「Sarashina」& OCR機能「Phi-3 Vision」の 無料オンラインウェビナー!

開催日時:
2024年7月24日(水) 14:00~15:00

内容:

  • 「Sarashina」や「Phi-3 Vision」の概要と使い方の紹介
  • 生成AI開発の強い味方「GPUSOROBAN」の活用方法

このウェビナーでは、ソフトバンクの日本語の強いの大規模言語モデル「Sarashina」の使い方や、実際にどのように使えるかを具体的に紹介します。

また、画像からテキストを抽出するOCR機能を簡単に作成できる「Phi-3 Vision」の使い方もデモを交えてお見せします。

生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

こんな方におすすめ!

  • 最新のAI技術やトレンドに興味がある方
  • AI開発に携わっている方
  • 生成AIの実用的な活用方法を学びたい方
  • 新しいツールや技術を積極的に取り入れたい方

\参加申し込みはこちら!/

この記事を書いた人

EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

目次