DeepSeek-R1-0528をあなたのコンピューターで実行可能に

2025-05-29

要約: 最新のDeepSeek R1モデルの小型版を、わずか約6GBのRAMであなたのコンピューターで実行できます。**こちらからモデルをダウンロードしてください**。LM Studio 0.3.16以降が必要です。

undefined

新しいDeepSeek R1のCoTから蒸留された8Bモデル「DeepSeek-R1-0528-Qwen3-8B」

新しいDeepSeek R1: DeepSeek-R1-0528

昨日(2025年5月28日)、DeepSeekはR1モデルの新しいイテレーションである「**DeepSeek-R1-0528**」をリリースしました。より多くの計算資源と改善された後学習アルゴリズムを活用することで、このバージョンはモデルの推論能力と判断能力を大幅に向上させています。

数学からプログラミング、一般的な論理に至るまでのベンチマークで高いスコアを記録しており、O3やGemini 2.5 Proのようなモデルの結果に近づいています。

undefined

リリース発表からのDeepSeek-R1-0528ベンチマーク

蒸留された8Bモデル: DeepSeek-R1-0528-Qwen3-8B

R1-0528のリリースの一環として、DeepSeekは「**DeepSeek-R1-0528-Qwen3-8B**」も公開しました。これは、DeepSeek-R1-0528からのCoT(思考の連鎖)トレースを使用して、Qwen3 8B Baseの後学習を継続することで作成された「蒸留された」モデルです。この小型モデルもツール利用と推論の両方をサポートしています。

DeepSeekチームは、このモデルがAIME 2024で最先端の結果を達成し、Qwen3 8Bを約10%上回り、はるかに大規模なQwen3-235B-thinkingに匹敵すると報告しています。

AIME 24AIME 25HMMT 2月25日GPQA DiamondLiveCodeBench (2408-2505)
Qwen3-235B-A22B85.781.562.571.166.5
Qwen3-32B81.472.9-68.4-
Qwen3-8B76.067.3-62.0-
Phi-4-Reasoning-Plus-14B81.378.053.669.3-
Gemini-2.5-Flash-Thinking-052082.372.064.282.862.3
o3-mini (medium)79.676.753.376.865.9
DeepSeek-R1-0528-Qwen3-8B86.076.361.561.160.5
出典: Hugging Face上のDeepSeek-R1-0528

この蒸留モデルは、わずか**4GBのRAM**で実行できます。ツールと高度な推論をそのままサポートしています。

このモデルは**MLX**と**GGUF**の両フォーマットで利用可能で、**LM Studio 0.3.16**以降が必要です。LM Studioで開くことで、Mac、Windows、またはLinuxマシンにダウンロードできます。




👾 参加しませんか

ローカルAIを誰もが利用しやすく、役立つものにする仕事に興味がありますか?

採用情報を見る: https://lmstudio.dokyumento.jp/careers