2.7K ダウンロード

mistralai/
mistral-nemo-i...
12B
ミストラル

Mistral AIが提供するやや大規模な12BパラメータモデルであるNeMoは、128kトークンという長いコンテキスト長、高度な世界知識、および開発者向けの関数呼び出しを提供します。

最終更新   20日前

最小:7GB
README

mistralaiによるMistral Nemo Instruct 2407

Mistral Nemoは128kコンテキストまでトレーニングされていますが、品質が低下する可能性がありますが、それ以上もサポートしています。

このモデルは、多言語を含む一連のベンチマークで驚異的なパフォーマンスを発揮します。

詳細については、こちらのブログ記事をご確認ください: https://mistral.ai/news/mistral-nemo/

ソース

このモデルが使用する基盤となるモデルファイル

このモデルをダウンロードすると、LM Studioはあなたのマシンに最適なソースを選択します(これは上書き可能です)

設定

このモデルに含まれるカスタム設定オプション

カスタム設定はありません。