DeepSeek-R1-0528をあなたのコンピューターで実行可能に
要約: 最新のDeepSeek R1モデルの小型版を、わずか約6GBのRAMであなたのコンピューターで実行できます。**こちらからモデルをダウンロードしてください**。LM Studio 0.3.16以降が必要です。
新しいDeepSeek R1のCoTから蒸留された8Bモデル「DeepSeek-R1-0528-Qwen3-8B」
DeepSeek-R1-0528
昨日(2025年5月28日)、DeepSeekはR1モデルの新しいイテレーションである「**DeepSeek-R1-0528**」をリリースしました。より多くの計算資源と改善された後学習アルゴリズムを活用することで、このバージョンはモデルの推論能力と判断能力を大幅に向上させています。
数学からプログラミング、一般的な論理に至るまでのベンチマークで高いスコアを記録しており、O3やGemini 2.5 Proのようなモデルの結果に近づいています。
リリース発表からのDeepSeek-R1-0528ベンチマーク
DeepSeek-R1-0528-Qwen3-8B
R1-0528のリリースの一環として、DeepSeekは「**DeepSeek-R1-0528-Qwen3-8B**」も公開しました。これは、DeepSeek-R1-0528からのCoT(思考の連鎖)トレースを使用して、Qwen3 8B Baseの後学習を継続することで作成された「蒸留された」モデルです。この小型モデルもツール利用と推論の両方をサポートしています。
DeepSeekチームは、このモデルがAIME 2024で最先端の結果を達成し、Qwen3 8Bを約10%上回り、はるかに大規模なQwen3-235B-thinkingに匹敵すると報告しています。
AIME 24 | AIME 25 | HMMT 2月25日 | GPQA Diamond | LiveCodeBench (2408-2505) | |
---|---|---|---|---|---|
Qwen3-235B-A22B | 85.7 | 81.5 | 62.5 | 71.1 | 66.5 |
Qwen3-32B | 81.4 | 72.9 | - | 68.4 | - |
Qwen3-8B | 76.0 | 67.3 | - | 62.0 | - |
Phi-4-Reasoning-Plus-14B | 81.3 | 78.0 | 53.6 | 69.3 | - |
Gemini-2.5-Flash-Thinking-0520 | 82.3 | 72.0 | 64.2 | 82.8 | 62.3 |
o3-mini (medium) | 79.6 | 76.7 | 53.3 | 76.8 | 65.9 |
DeepSeek-R1-0528-Qwen3-8B | 86.0 | 76.3 | 61.5 | 61.1 | 60.5 |
この蒸留モデルは、わずか**4GBのRAM**で実行できます。ツールと高度な推論をそのままサポートしています。
このモデルは**MLX**と**GGUF**の両フォーマットで利用可能で、**LM Studio 0.3.16**以降が必要です。LM Studioで開くことで、Mac、Windows、またはLinuxマシンにダウンロードできます。
ローカルAIを誰もが利用しやすく、役立つものにする仕事に興味がありますか?