Llama 3.2 3B Instruct 4bit

mlx-community

llama

Metaによる新しく小型のLlamaモデル。多言語対応の対話ユースケース、エージェントによる情報検索や要約タスクに最適化されています。

モデル情報

モデル

Llama 3.2 3B Instruct 4bit

作成者

mlx-community

アーキテクチャ

llama

パラメータ数

30億

フォーマット

safetensors

ディスク上のサイズ

1.82 GB

ダウンロードと実行Llama 3.2 3B Instruct 4bit

ダウンロードオプションを表示するには、LM Studioで開いてください。

ターミナルからllama-3.2-3bをダウンロード

LM Studioの開発者向けCLIであるlmsを使用してモデルをダウンロードします。

lms get llama-3.2-3b
まだインストールしていない場合は、npx lmstudio install-cliを実行してインストールしてください。

コードからllama-3.2-3bを呼び出す

curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "llama-3.2-3b",
    "messages": [
      { "role": "system", "content": "Always answer in rhymes." },
      { "role": "user", "content": "Introduce yourself." }
    ],
    "temperature": 0.7,
    "max_tokens": -1,
    "stream": true
  }'

次のステップ:構築!🔨

  • 開発者タブを使用してサーバーを構成し、受信リクエストを確認してください。
  • lms log streamを実行して、プロンプトがLLMに送信される様子を確認してください。
  • 🐛 バグはlmstudio-ai/lmstudio-bug-trackerで報告してください。

詳細情報