ドキュメント
LM Studio入門
システム要件
オフライン動作
テーマ
言語
UIモード
はじめに
モデルのダウンロード
チャットの管理
ドキュメントとのチャット (RAG)
ローカルLLMサーバー
OpenAI互換API
LM Studio REST API (ベータ版)
設定プリセット
プロンプトテンプレート
モデルごとの設定
ヘッドレスモード
構造化出力
モデルのサイドローディング
ツール使用
インストール lms
lms
lmsログストリーム
lmstudio.js入門
lmstudio.js
LMStudioClient
ローカルのLLMは、LM Studioの開発者タブから、localhostまたはネットワーク上で提供できます。
サーバーは、OpenAI互換モードと、lmstudio.js用のサーバーの両方で使用できます。
LM StudioからLLMのロードとサーバー提供
このページの内容
- APIオプション