LLM・RAG– category –
-
GPT-4超えの日本語LLM「Llama-3-ELYZA-JP」の性能・使い方!
Llama-3-ELYZA-JPは、東大・松尾研発のスタートアップELYZAが公開した日本語LLMです。 Llama-3-ELYZA-JP-70Bは、「GPT-4」や「Claude 3 Sonnet」を上回る性能があります。 この記事では、Llama-3-ELYZA-JPの性能から使い方まで紹介します。 Llama-3-ELYZA-... -
【llama-cpp-python】ローカル環境でのLLMの使い方!
llama-cpp-pythonはローカル環境でLLMが使える無料のライブラリです。 llama.cppをpythonで動かすことができるため、簡単に環境構築ができます。 この記事では、llama-cpp-pythonの環境構築からモデルを使ったテキスト生成の方法まで紹介します。 llama-cp... -
vLLMの使い方!LLMをローカルで高速に動かす
vLLMはローカル環境でLLMが使える無料のライブラリです。 vLLMを使えば、LLMによるテキスト生成を高速に行えるようになります。 この記事では、vLLMの環境構築からモデルを使ったテキスト生成の方法まで紹介します。 vLLMとは vLLMはローカル環境でLLMが使... -
【Llama3】Torchtuneで簡単ファインチューニング(QLoRA)
この記事では、PyTorchのTorchtuneを使ったLlama3のファインチューニング(QLoRA)を紹介します。 Torchtuneを使って簡単にファインチューニングの実装ができるようになります。 TorchtuneでLlama3のファインチューニング(QLoRA) Torchtuneとは この記事で... -
【Llama3】SFTTrainerで簡単ファインチューニング(QLoRA)
この記事では、Hugging FaceのSFTTrainerを使ったLlama3のファインチューニング(QLoRA)を紹介します。 SFTTrainerを使うことで、少ないコードでファインチューニングの実装ができます。 SFTTrainerでLlama3のファインチューニング(QLoRA) SFTTrainerとは... -
【Phi-3 Vision】OCRが速攻で作れる!軽量マルチモーダルSLMの使い方
Phi-3 Visionは、Microsoftが開発した無料で使えるマルチモーダルSLM(小規模言語モデル)です。 画像からテキストを読み取ることができ、Phi-3 Visionを使えばOCRを簡単に作ることができます。 この記事では、Phi-3 Visionの使い方を分かりやすく解説します... -
Phi-3とは?使い方から性能、商用利用まで分かりやすく解説!
Phi-3は、Microsoftが開発した無料で使える高性能なSLM(小規模言語モデル)です。 軽量モデルであるため、小さなGPUメモリのローカル環境でも動かすことができます。 この記事では、Phi-3の性能から使い方まで紹介します。 Phi-3とは Phi-3(ファイスリー)は... -
【Llama3】Unslothで爆速ファインチューニング(QLoRA)
この記事では、Unslothを使ったLlama3のファインチューニング(QLoRA)を紹介します。 UnslothによりGPUメモリの使用量を大幅に削減して、高速にファインチューニングができるようになります。 UnslothでLlama3のファインチューニング(QLoRA) Unslothとは ... -
Llama3とは?使い方から性能、商用利用まで分かりやすく解説!
Llama3は、Metaが開発した無料で使える高性能LLMです。 Llama3 70Bの性能は「Gemini1.5Pro」や「Claude3 Sonnet」を上回ると言われています。 この記事では、Llama3の性能から使い方まで紹介します。 Llama3とは Llama3は、Metaが開発したオープンソースの... -
Sarashinaをファインチューニング【ソフトバンクの日本語LLM】
この記事では、Sarashina(サラシナ)のファインチューニングを紹介します。 Sarashinaはソフトバンクの子会社のSB Intuitionsが開発した日本語に強いLLMです。 Sarashinaの事前学習モデルに指示チューニングを施すことで、チャット形式の応答ができるように...