LLM・RAG– category –
-
LLM・RAG
サイバーエージェントの日本語LLM「CyberAgentLM3」の使い方!
CyberAgentLM3は、サイバーエージェントが開発した225億パラメータの日本語に特化したLLMです。 日本語のLLMにおいてトップクラスの性能を持ち、商用利用が可能です。 この記事では、CyberAgentLM3の性能から商用利用、使い方までを紹介します。 CyberAgen... -
LLM・RAG
OllamaでLlama-3-ELYZA-JP-8Bを使う方法!
この記事では、OllamaでLlama-3-ELYZA-JP-8Bを使う方法を紹介します。 Llama-3-ELYZA-JP-8Bは、GPT-3.5 Turboに匹敵する性能を持つ日本語LLMです。 Ollamaを使えば、Llama-3-ELYZA-JP-8Bをローカル環境で動かすことができます。 OllamaでLlama-3-ELYZA-JP-... -
LLM・RAG
GPT-4超えの日本語LLM「Llama-3-ELYZA-JP」の性能・使い方!
Llama-3-ELYZA-JPは、東大・松尾研発のスタートアップELYZAが公開した日本語LLMです。 Llama-3-ELYZA-JP-70Bは、「GPT-4」や「Claude 3 Sonnet」を上回る性能があります。 この記事では、Llama-3-ELYZA-JPの性能から使い方まで紹介します。 Llama-3-ELYZA-... -
LLM・RAG
【llama-cpp-python】ローカル環境でのLLMの使い方!
llama-cpp-pythonはローカル環境でLLMが使える無料のライブラリです。 llama.cppをpythonで動かすことができるため、簡単に環境構築ができます。 この記事では、llama-cpp-pythonの環境構築からモデルを使ったテキスト生成の方法まで紹介します。 llama-cp... -
LLM・RAG
vLLMの使い方!LLMをローカルで高速に動かす
vLLMはローカル環境でLLMが使える無料のライブラリです。 vLLMを使えば、LLMによるテキスト生成を高速に行えるようになります。 この記事では、vLLMの環境構築からモデルを使ったテキスト生成の方法まで紹介します。 vLLMとは vLLMはローカル環境でLLMが使... -
LLM・RAG
【Llama3】Torchtuneで簡単ファインチューニング(QLoRA)
この記事では、PyTorchのTorchtuneを使ったLlama3のファインチューニング(QLoRA)を紹介します。 Torchtuneを使って簡単にファインチューニングの実装ができるようになります。 TorchtuneでLlama3のファインチューニング(QLoRA) Torchtuneとは この記事で... -
LLM・RAG
【Llama3】SFTTrainerで簡単ファインチューニング(QLoRA)
この記事では、Hugging FaceのSFTTrainerを使ったLlama3のファインチューニング(QLoRA)を紹介します。 SFTTrainerを使うことで、少ないコードでファインチューニングの実装ができます。 SFTTrainerでLlama3のファインチューニング(QLoRA) SFTTrainerとは... -
LLM・RAG
【Phi-3 Vision】OCRが速攻で作れる!軽量マルチモーダルSLMの使い方
Phi-3 Visionは、Microsoftが開発した無料で使えるマルチモーダルSLM(小規模言語モデル)です。 画像からテキストを読み取ることができ、Phi-3 Visionを使えばOCRを簡単に作ることができます。 この記事では、Phi-3 Visionの使い方を分かりやすく解説します... -
LLM・RAG
Phi-3とは?使い方から性能、商用利用まで分かりやすく解説!
Phi-3は、Microsoftが開発した無料で使える高性能なSLM(小規模言語モデル)です。 軽量モデルであるため、小さなGPUメモリのローカル環境でも動かすことができます。 この記事では、Phi-3の性能から使い方まで紹介します。 Phi-3とは Phi-3(ファイスリー)は... -
LLM・RAG
【Llama3】Unslothで爆速ファインチューニング(QLoRA)
この記事では、Unslothを使ったLlama3のファインチューニング(QLoRA)を紹介します。 UnslothによりGPUメモリの使用量を大幅に削減して、高速にファインチューニングができるようになります。 UnslothでLlama3のファインチューニング(QLoRA) Unslothとは ...