ドキュメンテーション
LLMのローカル実行
プリセット
API
ユーザーインターフェース
高度な設定
LLMのローカル実行
プリセット
API
ユーザーインターフェース
高度な設定
LM Studio をローカルLLM APIサーバーとして
LM StudioのDeveloperタブから、ローカルLLMをlocalhostまたはネットワーク上で提供できます。
LM StudioのAPIは、OpenAI互換モード、強化されたREST API、またはlmstudio-jsなどのクライアントライブラリを介して使用できます。
lmstudio-js
lmstudio-python
LM StudioからのLLMの読み込みと提供
このページの内容
- APIオプション