391.7K ダウンロード
OpenAIのオープンソースモデルの20Bバージョン。Apache 2.0ライセンス。
TTool useool use
推論
低遅延および特殊なローカルデプロイメント向けに設計されており、モデルは合計21Bのパラメータを持ち、一度に3.6Bしかアクティブになりません。MoEレイヤーのネイティブMXFP4量子化のおかげで、効率的に動作し、16GBのメモリで動作可能です。
このモデルは、寛容なApache 2.0ライセンスでリリースされており、設定可能な推論努力(低、中、高)を備えているため、ユーザーはニーズに応じて出力品質と遅延のバランスを取ることができます。モデルは、デバッグの容易さと信頼性の向上をサポートするために、完全な連鎖思考(chain-of-thought)の可視性を提供しますが、この出力はエンドユーザーを対象としたものではありません。特定のタスクやドメインへの適応を可能にするため、完全にファインチューン可能であり、関数呼び出し、ウェブブラウジング、Python実行、構造化出力などのネイティブなエージェント機能が含まれています。
このモデルは、131kのコンテキスト長をサポートします。
モデル作成者によって定義された特別な機能
推論努力
: 選択
(デフォルト=低)
モデルが実行すべき推論の量制御します。
このモデルが使用する基盤となるモデルファイル
このモデルをダウンロードすると、LM Studioはお使いのマシンに最適なソースを選択します(これは上書きできます)。
このモデルに含まれるカスタム設定オプション