ドキュメント

ローカルLLMサーバー

ローカルのLLMは、LM Studioの開発者タブから、localhostまたはネットワーク上で提供できます。

サーバーは、OpenAI互換モードと、lmstudio.js用のサーバーの両方で使用できます。

APIオプション

undefined

LM StudioからLLMのロードとサーバー提供