【DeepSeek-R1】各モデルの性能・必要なGPUメモリ・商用利用を解説!

【DeepSeek-R1】各モデルの性能・必要なGPUメモリ・商用利用を解説!

DeepSeek-R1は、中国のAI企業DeepSeekが開発した最新の大規模言語モデル(LLM)です。

DeepSeek-R1は、無料で使えるオープンソースでありながら、OpenAIのo1モデルに匹敵するパフォーマンスを持つと評価されています。

この記事では、DeepSeek-R1の各モデルの性能、必要なGPUメモリ、商用利用について解説します。

ざっくり言うと

  • DeepSeek-R1のモデルごとの違いや、必要なGPUメモリが分かる
  • DeepSeek-R1のモデルごとの性能、ベンチマークを紹介
  • DeepSeek-R1の安全性と商用利用について解説

2/25開催の無料ウェビナー!

目次

DeepSeek-R1とは?

見出し画像

DeepSeek-R1は、中国のAI企業DeepSeekが開発した最新の大規模言語モデル(LLM)です。

DeepSeek-R1は、無料で使えるオープンソースでありながら、OpenAIのo1モデルに匹敵するパフォーマンスを持つと評価されています。

o1同等のモデルが無料で提供され、商用利用も自由に行えるため、開発者にとって大きなメリットになります。

DeepSeek-R1の何がスゴイ?

見出し画像

高い推論能力

DeepSeek-R1の革新性は、従来のように大量の教師ありデータ(SFT)を用いた学習を行わず、純粋な強化学習(RL)だけで学習することで、モデルは自己検証や内省を通じて、長い思考連鎖(Chain of Thought, CoT)の生成といった高度な推論能力を獲得しました。さらに大規模な教師ありデータセットが不要なメリットがあります。

強化学習(RL)のアルゴリズムとしてGRPO(Group Relative Policy Optimization)を採用し、従来のように絶対的なスコアで評価するのではなく、複数の選択肢を比較しながら「より優れたもの」を相対的に判断する手法を報酬の基準として学習することで、計算コストを大幅に削減しています。

推論能力と読みやすい文章の両立

DeepSeek-R1の学習プロセスは、強化学習(RL)と教師ありファインチューニング(SFT)を交互に適用する多段階のパイプラインで構成されています。

まず、ベースモデルにRLを適用して初期の推論能力を強化し(DeepSeek-R1-Zero)、その後SFTでコールドスタートの不安定さを解消しながら可読性を向上させます。

さらに、論理的思考の強化を目的としたRL汎用性向上のためのSFT最終的な有用性と安全性の最適化を目的としたRLを適用し、精度・適応力・安全性を兼ね備えたモデルへと仕上げます。

多段階学習プロセス

第0段階(RL:ベースモデルに対する強化学習)
まず、ベースモデルに対して強化学習(RL)を適用し、初期の推論能力を強化します。このモデルがDeepSeek-R1-Zeroにあたります。このステージでは、学習が不安定で時間がかかるコールドスタート問題や、言語の混在や可読性の低さなどの課題が含まれます。

第1段階(SFT:CoTプロセスの学習)
少量の高品質なデータセットを用いて教師あり微調整(SFT)を行い、強化学習(RL)に伴う初期の不安定さを解消します。このデータには思考プロセス(Chain of Thought, CoT)を含め、可読性の向上を目的としたフォーマットを採用しています。また、言語混在や出力の品質低下といった課題を防ぐため、適切な構成とフィルタリングを実施します。強化学習(RL)の初期段階での不安定さを解消し、モデルの論理的思考能力を高めることができます。

第2段階(RL:推論能力の強化)
数学・コーディング・科学など、論理的思考が求められるタスクに特化した強化学習(RL)を適用します。
この段階では、DeepSeek-R1-Zeroで確認された言語混在の問題を軽減するため、「言語一貫性報酬」を追加し、出力の統一性と可読性を確保します。

第3段階(SFT:汎用性的な言語能力の向上
教師あり微調整(SFT)を再度実施し、ライティング・Q&A・翻訳など、幅広いタスクに対応できる汎用性を強化します。

第4段階(RL:倫理的バイアスの調整)
最後に、モデルの論理的思考能力をさらに洗練するとともに、有用性と無害性を向上させるため、総合的な強化学習(RL)を適用します。このステージでは、数学・コーディング・論理的思考の精度向上に加え、人間の嗜好に適応する応答の最適化を行い、安全性を確保します。

蒸留モデルによってGPUの計算コストを削減

DeepSeek-R1では、蒸留を用いて、大規模モデルの推論パターンをQwen2.5やLlama3などの小型モデルへ効果的に転移しています。

その結果、GPUの計算コストを抑えながらも、高い推論能力を持つ軽量なモデルが実現されました。

これにより、処理能力に制約のあるローカル環境でも、DeepSeek-R1を十分に活用できるようになっています。

DeepSeek-R1のモデルの種類と必要なGPUメモリ(VRAM)

見出し画像

DeepSeek-R1は、パラメータ数に応じて複数のバリエーションがあります。

モデルのパラメータ数が増加すると、性能が向上しますが、その分必要なGPUメモリ(VRAM)も増加します。

量子化を適用することで、精度を若干落としながらもGPUメモリを節約することが可能です。

スクロールできます
モデルIDパラメータ数GPUメモリ(VRAM)
※量子化なし
GPUメモリ(VRAM)
※4bit量子化あり
GPUメモリ(VRAM)
※Ollamaモデル
参考GPUスペック
deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B1.5B(15億)4GB1GB0.75GBNVIDIA A4000 16GB x1枚
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B7B(70億)18GB4.5 GB3.5GBNVIDIA A100 40GB x1枚
deepseek-ai/DeepSeek-R1-Distill-Llama-8B8B(80億)21GB5 GB4GBNVIDIA A100 40GB x1枚
deepseek-ai/DeepSeek-R1-Distill-Qwen-14B14B(140億)36GB9 GB7GBNVIDIA A100 80GB x1枚
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B32B(320億)82GB21GB16GBNVIDIA H200 141GB x1枚
deepseek-ai/DeepSeek-R1-Distill-Llama-70B70B(700億)181GB46 GB35GBNVIDIA H200 141GB x2枚
deepseek-ai/DeepSeek-R1617B(6710億)1543GB436 GB1342GBNVIDIA H200 141GB x12枚
deepseek-ai/DeepSeek-R1-Zero617B(6710億)1543GB436 GB1342GBNVIDIA H200 141GB x12枚

Ollamaが提供するモデルには、デフォルトで量子化がされています。

モデルはHuggingFaceから無料でダウンロードできます!

DeepSeek-R1をローカル環境で使用する方法は?

DeepSeek-R1の日本語モデルとは?

DeepSeekのアプリの使い方は?

DeepSeek-R1の性能・ベンチマーク

見出し画像

DeepSeek-R1(671B)とOpenAI o1のベンチマーク比較

DeepSeek-R1は、数学的推論や論理的推論、コーディングに特化しており、OpenAIのo1シリーズに相当する位置づけになります。

DeepSeek-R1(671B)は、OpenAIo1と同等のパフォーマンスを発揮しつつ、特に推論能力や数学分野においてはo1を上回っています。

ベンチマーク
(出典:https://huggingface.co/deepseek-ai/DeepSeek-R1)
スクロールできます
CategoryBenchmark (Metric)Claude-3.5-Sonnet-1022GPT-4o 0513DeepSeek V3OpenAI o1-miniOpenAI o1-1217DeepSeek R1(671B)
知識・推論能力(英語)MMLU (Pass@1)88.387.288.585.291.890.8
MMLU-Redux (EM)88.988.089.186.792.9
MMLU-Pro (EM)78.072.675.980.384.0
DROP (3-shot F1)88.383.791.683.990.292.2
IF-Eval (Prompt Strict)86.584.386.184.883.3
GPQA-Diamond (Pass@1)65.049.959.160.075.771.5
SimpleQA (Correct)28.438.224.97.047.030.1
FRAMES (Acc.)72.580.573.376.982.5
AlpacaEval2.0 (LC-winrate)52.051.170.057.887.6
ArenaHard (GPT-4-1106)85.280.485.592.092.3
プログラミング能力LiveCodeBench (Pass@1-COT)33.834.253.863.465.9
Codeforces (Percentile)20.323.658.793.496.696.3
Codeforces (Rating)7177591134182020612029
SWE Verified (Resolved)50.838.842.041.648.949.2
Aider-Polyglot (Acc.)45.316.049.632.961.753.3
数学能力AIME 2024 (Pass@1)16.09.339.263.679.279.8
MATH-500 (Pass@1)78.374.690.290.096.497.3
CNMO 2024 (Pass@1)13.110.843.267.678.8
DeepSeek-R1とOpenAI o1-1217の比較

AIME 2024(数学的推論)

DeepSeek-R1は79.8%を記録し、OpenAI o1-1217の79.2%をわずかに上回っています。


MATH-500(高校数学問題)

DeepSeek-R1は97.3%と非常に高いスコアを達成し、OpenAI o1-1217の96.4%を上回りました。

Codeforces(プログラミング能力)

DeepSeek-R1は96.3%であり、OpenAI o1-1217が96.6%よりも若干下回りました。


SWE-bench Verified(ソフトウェアエンジニアリングタスク)

DeepSeek-R1が49.2%で、OpenAI o1-1217の48.9%を若干上回る結果でした。

GPQA Diamond(一般知識)

OpenAI o1-1217が75.7%と優勢に対し、DeepSeek-R1は71.5%と少し遅れを取っています。


MMLU(多分野知識の理解)

DeepSeek-R1の90.8%であり、OpenAI o1-1217は91.8%をわずかに下回る結果となりました。

DeepSeek-R1 蒸留モデルのベンチマーク

DeepSeek-R1は、QwenベースとLlamaベースの2種類の蒸留モデルを提供しており、Qwenベースはバランスの取れた性能を持ち、Llamaベースは数学的推論やプログラミング能力に強みがあります。それぞれのモデルの特徴を詳しく見ていきます。

スクロールできます
ModelAIME 2024 pass@1AIME 2024 cons@64MATH-500 pass@1GPQA Diamond pass@1LiveCodeBench pass@1CodeForces rating
GPT-4o-05139.313.474.649.932.9759
Claude-3.5-Sonnet-102216.026.778.365.038.9717
o1-mini63.680.090.060.053.81820
QwQ-32B-Preview44.060.090.654.541.91316
DeepSeek-R1-Distill-Qwen-1.5B28.952.783.933.816.9954
DeepSeek-R1-Distill-Qwen-7B55.583.392.849.137.61189
DeepSeek-R1-Distill-Qwen-14B69.780.093.959.153.11481
DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.21691
DeepSeek-R1-Distill-Llama-8B50.480.089.149.039.61205
DeepSeek-R1-Distill-Llama-70B70.086.794.565.257.51633
蒸留モデルごとのベンチマーク結果

DeepSeek-R1-Distill-Qwen-1.5B

数学(MATH-500: 83.9%) → 基本的な数学推論が可能。
プログラミング(LiveCodeBench: 16.9%) → プログラミング能力は低く、コード生成には不向き。

DeepSeek-R1-Distill-Qwen-7B

数学(MATH-500: 92.8%) → トップクラスの数学推論能力を持つ。
一般知識(GPQA Diamond: 49.1%) → 一般的な知識にもある程度対応可能。
プログラミング(LiveCodeBench: 37.6%) → 簡単なコード生成が可能。

DeepSeek-R1-Distill-Llama-8B

数学(MATH-500: 89.1%) → 高い数学推論能力を持つ。
一般知識(GPQA Diamond: 49.0%) → 基本的な知識問題には対応。
プログラミング(LiveCodeBench: 39.6%) → 一部のコード生成に対応できるが、強みではない。

DeepSeek-R1-Distill-Qwen-14B

数学(MATH-500: 93.9%) → トップレベルの数学推論能力。
一般知識(GPQA Diamond: 59.1%) → 幅広い知識領域に対応。
プログラミング(LiveCodeBench: 53.1%) → コーディング能力が向上し、実用的な範囲

DeepSeek-R1-Distill-Qwen-32B

数学(MATH-500: 94.3%) → 最高クラスの数学推論能力。
一般知識(GPQA Diamond: 62.1%) → 幅広い知識に対応可能。
プログラミング(LiveCodeBench: 57.2%) → コード生成能力がさらに向上。
高度数学推論(AIME 2024: 72.6%) → 複雑な数学問題も解ける。

DeepSeek-R1-Distill-Llama-70B

数学(MATH-500: 94.5%) → 最高レベルの数学推論能力。
高度数学推論(AIME 2024: 86.7%) → 非常に複雑な数学問題にも対応可能。
プログラミング(LiveCodeBench: 57.5%) → 実用的なコード生成が可能。
アルゴリズム(Codeforces: 1633) → アルゴリズムや競技プログラミング分野でも強みを発揮。

DeepSeek-R1の日本語対応は?

見出し画像

DeepSeek-R1の各モデルは日本語に対応していますが、パラメータ数が14B未満のモデルでは、回答に中国語や英語が混ざることがあります。

一方、32B以上のモデルでは、より流暢で自然な日本語の応答が可能となり、実用性が向上します。

さらに、DeepSeek-R1を日本語データで追加学習したモデルも公開されており、日本語の精度を重視する場合には、これらのモデルの活用を検討するとよいでしょう。

DeepSeek-R1の日本語モデルとは?

DeepSeek-R1の安全性と注意点

見出し画像

DeepSeekは、アプリやAPI、オープンモデルまで幅広い形態でサービスを提供しています。

サービスによって、安全性に関する捉え方が異なりますので、分けて説明します。

アプリやAPIを使用する場合の注意点

アプリやAPIを利用してDeepSeekにアクセスする場合、入力したデータは外部のサーバーへ送信されます。

DeepSeekの利用規約によると、この入力データはモデルの学習に活用される可能性が記述されており、OpenAIのような「学習対象からの除外(オプトアウト)」機能は提供されていません。

したがって、個人情報や機密情報を入力すると、それらが学習データとして取り扱われるリスクがある点に注意が必要です。

DeepSeekの利用規約

オープンモデルを使用する場合の注意点

DeepSeek-R1をローカル環境にダウンロードして利用する場合、外部のサーバーへデータを送信しなくて済むため、個人情報や機密情報が漏洩するリスクは基本的にありません。

具体的には、HuggingFaceやOllamaなどのプラットフォームからモデルをダウンロードし、ローカル環境で運用する形式となるため、DeepSeek社に情報を提供する必要がありません。

DeepSeek-R1にはMITやApache 2.0、Llama等のライセンスが適用されており、改変・再配布・商用利用などが自由に行えます。

モデルによってライセンスが異なりますので、ご利用の際は該当するライセンスをご確認ください。

DeepSeek-R1をローカル環境で使用する方法は?

DeepSeekの安全性を詳しく解説!

DeepSeek-R1の商用利用・ライセンス

見出し画像

DeepSeek-R1は、基本的に無料で商用利用が可能ですが、モデルの種類によってライセンスが異なります。

DeepSeek-R1(671B)はライセンスは「MIT」

DeepSeek-R1(671B)は、MITライセンスをもとに提供されており、無料で商用利用できます。

MITライセンスは、ソフトウェアの配布に使用される非常に寛容なオープンソースライセンスです

MITライセンスの要点

商用利用:ソフトウェアやコードを商用利用することが完全に許可されています。

改変:ソフトウェアを自由に修正したり改変したりすることができます。

配布:修正したり変更したりしたソフトウェアを自由に配布することができます。

著作権の表示:再配布時にオリジナルの著作権表示とライセンス条項を含める必要があります。

特許利用:特許利用に関する明示的な規定はありません。

DeepSeek-R1-Distill-Qwenのライセンスは「Apache 2.0」

DeepSeek-R1-Distill-Qwenシリーズは、Apache License 2.0に基づいて提供されており、無料で商用利用できます。

モデルIDベースモデルライセンス
deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5BQwen2.5-Math-1.5BApache 2.0 License
deepseek-ai/DeepSeek-R1-Distill-Qwen-7BQwen2.5-Math-7BApache 2.0 License
deepseek-ai/DeepSeek-R1-Distill-Qwen-14BQwen2.5-14BApache 2.0 License
deepseek-ai/DeepSeek-R1-Distill-Qwen-32BQwen2.5-32BApache 2.0 License
Apache License 2.0

商用利用:ソフトウェアやコードを商用利用することが許可されています。

改変:ソフトウェアやコードを自由に修正したり改変したりすることができます。

配布:修正したり変更したりしたソフトウェアを自由に配布することができます。

著作権表示:元の著作権表示とライセンス条項を含める必要があります。

特許利用:利用者に特許使用権が付与されています。

DeepSeek-R1-Distill-Llamaのライセンスは「META LLAMA COMMUNITY LICENSE」

DeepSeek-R1-Distill-Llamaシリーズは、「META LLAMA COMMUNITY LICENSE」にもとづいて、無料で利用でき、商用利用も可能です。

モデルIDベースモデルライセンス
deepseek-ai/DeepSeek-R1-Distill-Llama-8BLlama-3.1-8Bllama3.1 license
deepseek-ai/DeepSeek-R1-Distill-Llama-70BLlama-3.3-70B-Instructllama3.3 license
META LLAMA COMMUNITY LICENSEの要点

商用利用:ソフトウェアやコードを商用利用することが許可されています。

改変:ソフトウェアやコードを自由に修正したり改変したりすることができます。

配布:修正したり変更したりしたソフトウェアを自由に配布することができます。

著作権表示:再配布時に、著作権の表示や契約書コピーの提供などが必要になります。

特許利用:特許利用に関する明示的な規定はありません。

商用利用は、「月間アクティブユーザーが7億人以下であれば無償で利用できる」条件つきです。

詳細はLlamaのライセンスページをご参照ください。

DeepSeek-R1の使い方は?

DeepSeek-R1を活用したRAGの構築方法は?

生成AI・LLMのコストでお困りなら

GPUのスペック不足で生成AIの開発が思うように進まないことはありませんか?

そんなときには、高性能なGPUをリーズナブルな価格で使えるGPUクラウドサービスがおすすめです!

GPUSOROBAN
GPUSOROBAN

GPUSOROBANは、高性能GPU「NVIDIA H200」を業界最安級の料金で使用することができます。

NVIDIA H200は、生成AI・LLMの計算にかかる時間を大幅に短縮することが可能です。

クラウドで使えるため、大規模な設備投資の必要がなく、煩雑なサーバー管理からも解放されます。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
EdgeHUBロゴ

メールマガジン登録

Stable Diffusion・LLM・RAGに関する最新情報をいち早くお届けします。

無料メルマガの配信をご希望の方は、下記フォームよりご登録ください。

    EdgeHUB編集部からのお知らせ

    無料ウェビナーのお知らせ

    ウェビナー

    業界を震撼させた革新的LLM「DeepSeek-R1」の使い方を解説する無料ウェビナー!

    開催日時:
    2025年2月25日(火) 11:00~12:00

    内容:

    • DeepSeek-R1のローカル環境での使い方、日本語モデルの解説
    • 業界最安級GPUクラウド「GPUSOROBAN」の紹介・使い方デモ

    このウェビナーでは、「DeepSeek-R1」のデモを交えてGPUクラウドの使い方を紹介します。

    生成AIに関心のある方、AI技術をビジネスに活かしたい方は、ぜひこの貴重な機会にご参加ください!

    こんな方におすすめ!

    • DeepSeek-R1の安全性に不安を感じている方
    • DeepSeek-R1の日本語モデルを使いたい方
    • DeepSeek-R1を使ったRAGの構築方法を知りたい方
    • GPUのコスト、リソースに課題を感じている方

    希望者にはデモで使用したソースコードをプレゼント!

    \簡単30秒で申し込み!/

    この記事を書いた人

    EdgeHUBは、NVIDIAクラウドパートナーである株式会社ハイレゾが運営しています。「AIと共にある未来へ繋ぐ」をテーマに、画像生成AI、文章生成AI、動画生成AI、機械学習・LLM、Stable Diffusionなど、最先端の生成AI技術の使い方をわかりやすく紹介します。

    目次