GGUF
MLX
•
mistral
Mistral Small 3.1をベースにしたMistralAI初の推論モデル
GGUF
MLX
•
qwen3
DeepSeek-R1-0528の思考連鎖(CoT)を用いてQwen3 8Bベースモデルで後学習プロセスを継続することにより作成された、DeepSeek-R1-0528モデルの蒸留版。
MLX
GGUF
•
mistral
MistralAIのDevstralはMistral Small 3.1をベースにしています。SWE-benchでオープンソースモデル第1位としてデビューしました。
GGUF
MLX
•
phi-4
Phi-4ファミリーの軽量オープンモデル
GGUF
MLX
•
phi-4
Phi-4をベースに、より高い精度を実現するために強化学習を追加して微調整された、高度なオープンウェイト推論モデル
GGUF
MLX
•
qwen3moe
Qwen3モデルファミリーの235Bパラメータ(MoE)版。
GGUF
MLX
•
qwen3
Qwen3モデルファミリーの32Bパラメータ版。
GGUF
MLX
•
qwen3moe
Qwen3モデルファミリーの30Bパラメータ(MoE)版。
GGUF
MLX
•
qwen3
Qwen3モデルファミリーの1.7Bパラメータ版。
GGUF
MLX
•
qwen3
Qwen3モデルファミリーの4Bパラメータ版。
GGUF
MLX
•
qwen3
Qwen3モデルファミリーの14Bパラメータ版。
GGUF
MLX
•
qwen3
Qwen3モデルファミリーの8Bパラメータ版。
GGUF
MLX
•
gemma3
Googleが提供する最先端の画像+テキスト入力モデル。Geminiモデルの開発に使用されたのと同じ研究と技術に基づいて構築されています。
GGUF
MLX
•
gemma3
Googleが提供する最先端の画像+テキスト入力モデル。Geminiモデルの開発に使用されたのと同じ研究と技術に基づいて構築されています。
GGUF
MLX
•
gemma3
Googleが提供する最先端の画像+テキスト入力モデル。Geminiモデルの開発に使用されたのと同じ研究と技術に基づいて構築されています。
GGUF
MLX
•
gemma3
Gemma 3の小型テキスト専用バリアント:Googleの最新オープンウェイトモデルファミリー
GGUF
MLX
•
qwen2
Qwenファミリーの推論モデルで、ベンチマークでDeepSeek R1に匹敵します。
GGUF
•
granite
IBMの小型で高性能なLLM
GGUF
•
qwen2vl
Qwen2.5ファミリーの7Bビジョン言語モデル(VLM)
GGUF
•
phi
Phiモデルシリーズの最新版:最大16Kトークンのコンテキストでのチャットに適しています
GGUF
•
granite
IBMの密なLLMで、最大128Kのコンテキスト長をサポートし、12兆トークンで学習されています。一般的な指示に従うのに適しており、AIアシスタントの構築にも使用できます。
GGUF
•
llama
Metaの最新Llama 70Bモデルで、Llama 3.2 405Bの性能に匹敵します。
GGUF
MLX
•
qwen2
コード生成、コード推論、コード修正のためのコード特化型Qwen 2.5の14B版。
GGUF
MLX
•
qwen2
コード生成、コード推論、コード修正のためのコード特化型Qwen 2.5の32B版。
GGUF
•
mistral
Mistral AIのわずかに大きい12BパラメータモデルであるNeMoは、128kトークンの長いコンテキスト長、高度な世界知識、開発者向けの関数呼び出しを提供します。
GGUF
•
mistral
Mistral AIの人気7Bモデルの科学専門家向け微調整版であるMathstralは、STEMチャットやタスクに優れています。
GGUF
•
gemma2
Gemma 2モデルファミリーの中規模オプション。Googleが、Geminiモデルの作成に使用されたのと同じ研究と技術を用いて構築しました。
GGUF
•
gemma2
Gemma 2モデルファミリーの大型オプション。Googleが、Geminiモデルの作成に使用されたのと同じ研究と技術を用いて構築しました。
GGUF
•
mistral
Mistral AIの最新のコーディングモデルであるCodestralは、80以上のプログラミング言語で指示とコード補完の両方を簡単に処理できます。
GGUF
•
mistral
最も人気のあるオープンソースLLMの1つであるMistralの7B Instructモデルは、速度、サイズ、パフォーマンスのバランスが取れており、優れた汎用デイリードライバーとなります。