ドキュメント

lms — LM Studio の CLI

コマンドラインユーティリティ lms を使って始めましょう。

LM Studio には、ローカル LLM ワークフローのスクリプト作成と自動化のためのコマンドラインツール lms が付属しています。

lmsMIT ライセンスで、GitHub のこのリポジトリで開発されています: https://github.com/lmstudio-ai/lms


情報

👉 lms を使用するには、LM Studio を少なくとも一度実行する必要があります。

lms のインストール

lms は LM Studio に同梱されており、LM Studio の作業ディレクトリの /bin フォルダ内にあります。

lms をシステムパスに追加するには、次のコマンドを使用します。

macOS または Linux で lms をブートストラップする

ターミナルで次のコマンドを実行してください

~/.lmstudio/bin/lms bootstrap

Windows で lms をブートストラップする

PowerShell で次のコマンドを実行してください

cmd /c %USERPROFILE%/.lmstudio/bin/lms.exe bootstrap

インストールの検証

新しいターミナルウィンドウを開き、lms を実行します。

これが現在の出力です

$ lms
lms - LM Studio CLI - v0.2.22
GitHub: https://github.com/lmstudio-ai/lmstudio-cli

Usage
lms <subcommand>

where <subcommand> can be one of:

- status - Prints the status of LM Studio
- server - Commands for managing the local server
- ls - List all downloaded models
- ps - List all loaded models
- load - Load a model
- unload - Unload a model
- create - Create a new project with scaffolding
- log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream`
- version - Prints the version of the CLI
- bootstrap - Bootstrap the CLI

For more help, try running `lms <subcommand> --help`

lms を使用してワークフローを自動化およびデバッグする

ローカルサーバーの開始と停止

lms server start
lms server stop

マシン上のローカルモデルを一覧表示する

lms ls

これは、アプリの「📂 マイモデル」タブで設定した現在の LM Studio モデルディレクトリを反映します。

現在ロードされているモデルを一覧表示する

lms ps

モデルをロードする(オプション付き)

lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]

--gpu=1.0 は「計算の100%をGPUにオフロードしようとする」ことを意味します。

  • オプションで、ローカル LLM に識別子を割り当てます
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"

これは、モデル識別子を一貫させたい場合に便利です。

モデルをアンロードする

lms unload [--all]

このページのソースは GitHub で利用可能です。