ドキュメント

lms — LM Studio の CLI

LM Studio には、ローカル LLM ワークフローのスクリプト化と自動化のためのコマンドラインツールである lms が付属しています。

lms は MIT ライセンスであり、GitHub のこのリポジトリで開発されています: https://github.com/lmstudio-ai/lms


情報

👉 lms を使用する前に、LM Studio を *少なくとも一度* 実行する必要があります。

lms をインストール

lms は LM Studio に同梱されており、LM Studio の作業ディレクトリの /bin にあります。

lms をシステムのパスに追加するには、次のコマンドを使用します。

macOS または Linux で lms をブートストラップ

ターミナルで次のコマンドを実行します。

~/.cache/lm-studio/bin/lms bootstrap

Windows で lms をブートストラップ

PowerShell で次のコマンドを実行します。

cmd /c %USERPROFILE%/.cache/lm-studio/bin/lms.exe bootstrap

インストールを確認

新しいターミナルウィンドウを開き、lms を実行します。

これが現在得られる出力です

$ lms
lms - LM Studio CLI - v0.2.22
GitHub: https://github.com/lmstudio-ai/lmstudio-cli

Usage
lms <subcommand>

where <subcommand> can be one of:

- status - Prints the status of LM Studio
- server - Commands for managing the local server
- ls - List all downloaded models
- ps - List all loaded models
- load - Load a model
- unload - Unload a model
- create - Create a new project with scaffolding
- log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream`
- version - Prints the version of the CLI
- bootstrap - Bootstrap the CLI

For more help, try running `lms <subcommand> --help`

lms を使用してワークフローを自動化およびデバッグする

ローカルサーバーの起動と停止

lms server start
lms server stop

マシン上のローカルモデルを一覧表示する

lms ls

これは、アプリの 📂 モデル タブで設定した現在の LM Studio モデルディレクトリを反映します。

現在ロードされているモデルを一覧表示する

lms ps

モデルをロードする (オプション付き)

lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]

--gpu=1.0 は「計算の 100% を GPU にオフロードしようとする」ことを意味します。

  • オプションで、ローカル LLM に識別子を割り当てます。
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"

これは、モデルの識別子を一定に保ちたい場合に役立ちます。

モデルをアンロードする

lms unload [--all]