ドキュメント
LLMで予測
エージェントフロー
テキスト埋め込み
トークン化
モデル情報
API リファレンス
LLMで予測
エージェントフロー
テキスト埋め込み
トークン化
モデル情報
API リファレンス
ローカルモデルを一覧表示
listLocalModels
メソッドを使用して、ローカルで利用可能なモデルを反復処理できます。
listLocalModels
は、LMStudioClient
オブジェクトの system
ネームスペース内にあります。
import { LMStudioClient } from "@lmstudio/sdk";
const client = new LMStudioClient();
console.info(await client.system.listDownloadedModels());
これは、CLI で lms ls
を使用するのと同等の結果を返します。
[ { "type": "llm", "modelKey": "qwen2.5-7b-instruct", "format": "gguf", "displayName": "Qwen2.5 7B Instruct", "path": "lmstudio-community/Qwen2.5-7B-Instruct-GGUF/Qwen2.5-7B-Instruct-Q4_K_M.gguf", "sizeBytes": 4683073952, "paramsString": "7B", "architecture": "qwen2", "vision": false, "trainedForToolUse": true, "maxContextLength": 32768 }, { "type": "embedding", "modelKey": "text-embedding-nomic-embed-text-v1.5@q4_k_m", "format": "gguf", "displayName": "Nomic Embed Text v1.5", "path": "nomic-ai/nomic-embed-text-v1.5-GGUF/nomic-embed-text-v1.5.Q4_K_M.gguf", "sizeBytes": 84106624, "architecture": "nomic-bert", "maxContextLength": 2048 } ]
このページの内容
ローカルマシンで利用可能なモデル
出力例