SmolLM 360M v0.2

HuggingFace

llama

HuggingFaceのオリジナルモデルであるSmolLMはその名のとおりサイズが小さく、ほぼすべてのデバイスに収まります。1.7Bパラメータの少し大きいオプションも利用可能です。

モデル情報

モデル

SmolLM 360M v0.2

作成者

HuggingFace

アーキテクチャ

llama

パラメータ

360M

フォーマット

gguf

ディスク上のサイズ

386.41 MB

ダウンロードと実行SmolLM 360M v0.2

LM Studioで開いてダウンロードオプションを表示します

ターミナルからsmollm-360mをダウンロードする

LM Studioの開発者向けCLIであるlmsを使用してモデルをダウンロードします。

lms get smollm-360m
まだお持ちでない場合は、npx lmstudio install-cliを実行して入手してください。

コードからsmollm-360mを呼び出す

curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "smollm-360m",
    "messages": [
      { "role": "system", "content": "Always answer in rhymes." },
      { "role": "user", "content": "Introduce yourself." }
    ],
    "temperature": 0.7,
    "max_tokens": -1,
    "stream": true
  }'

次のステップ:ビルド! 🔨

  • 開発者タブを使用してサーバーを設定し、受信リクエストを確認します。
  • lms log streamを実行して、LLMに送信されるプロンプトを確認します。
  • 🐛 バグはlmstudio-ai/lmstudio-bug-trackerに報告してください。

詳細はこちら