ドキュメント
LLMをローカルで実行する
プリセット
API
ユーザーインターフェース
高度な設定
LLMをローカルで実行する
プリセット
API
ユーザーインターフェース
高度な設定
LM Studioをサービスとして実行する(ヘッドレス)
高度な設定
バージョン0.3.5以降、LM StudioはGUIなしでサービスとして実行できるようになりました。これは、LM Studioをサーバー上で、またはローカルマシンのバックグラウンドで実行するのに役立ちます。
LM Studioをサービスとして実行することは、LM Studioを開発者ツールとしてより効率的に使用することを目的としたいくつかの新機能で構成されています。
これを有効にするには、アプリ設定(Cmd
/ Ctrl
+ ,
)に移動し、ログイン時にLLMサーバーを実行するチェックボックスをオンにしてください。
マシンログイン時にLLMサーバーを起動するように設定
この設定を有効にすると、アプリを終了してもシステムトレイに最小化され、LLMサーバーはバックグラウンドで引き続き実行されます。
LM Studioを他のフロントエンドやアプリケーションとLLMサービスとして利用する際に便利です。
オンデマンドでモデルを読み込む
/v1/models
への呼び出しは、メモリに読み込まれているモデルだけでなく、ダウンロード済みのすべてのモデルを返します/v1/models
への呼び出しは、メモリに読み込まれているモデルのみを返しますLM Studio 0.3.5時点では、自動アンロードはまだ実装されていません。JIT読み込みで読み込まれたモデルは、手動でアンロードするまでメモリに残ります。近い将来、より洗練されたメモリ管理を実装する予定です。ご意見やご提案があればお知らせください。
最後のサーバーの状態は保存され、アプリまたはサービスの起動時に復元されます。
これをプログラムで実現するには、以下のコマンドを使用できます
lms server start
まだの場合は、lms
をマシンに導入するには、こちらの手順に従ってください。
他のLM Studio開発者とチャットしたり、LLM、ハードウェアなどについて議論したりするには、LM Studio Discordサーバーをご利用ください。
バグや問題は、lmstudio-bug-tracker GitHubリポジトリに報告してください。
このページの内容
LM Studioをサービスとして実行
マシンログイン時にLLMサービスを実行
OpenAIエンドポイント向けジャストインタイム(JIT)モデル読み込み
- JIT読み込みがオンの場合
- JIT読み込みがオフの場合
サーバー自動起動
コミュニティ