2.7K ダウンロード
Mistral AIが提供するやや大規模な12BパラメータモデルであるNeMoは、128kトークンという長いコンテキスト長、高度な世界知識、および開発者向けの関数呼び出しを提供します。
最終更新 20日前
Mistral Nemoは128kコンテキストまでトレーニングされていますが、品質が低下する可能性がありますが、それ以上もサポートしています。
このモデルは、多言語を含む一連のベンチマークで驚異的なパフォーマンスを発揮します。
詳細については、こちらのブログ記事をご確認ください: https://mistral.ai/news/mistral-nemo/
このモデルが使用する基盤となるモデルファイル
このモデルをダウンロードすると、LM Studioはあなたのマシンに最適なソースを選択します(これは上書き可能です)
このモデルに含まれるカスタム設定オプション