ドキュメント
インテグレーション
Model Context Protocol (MCP)
モデル (model.yaml)
API
インテグレーション
Model Context Protocol (MCP)
モデル (model.yaml)
API
API
LM StudioをローカルLLM APIサーバーとして利用
LM StudioでローカルLLM APIサーバーをlocalhostで実行する
LM StudioのDeveloperタブから、localhostまたはネットワーク上でローカルLLMをサーブできます。
LM StudioのAPIは、OpenAI互換モード、強化されたREST API、またはlmstudio-jsのようなクライアントライブラリ経由で利用できます。
lmstudio-jslmstudio-python
LM StudioからLLMをロードしてサーブする
このページのソースはGitHubで入手できます。