ドキュメンテーション

lms — LM Studio の CLI

LM Studio には、ローカル LLM ワークフローをスクリプト化し自動化するためのコマンドラインツールであるlmsが付属しています。

lmsMITライセンスであり、GitHubのこのリポジトリで開発されています: https://github.com/lmstudio-ai/lms


情報

👉 lmsを使用する前に、LM Studio を少なくとも一度実行する必要があります。

lmsのインストール

lmsはLM Studioに付属しており、LM Studioの作業ディレクトリにある/bin以下で見つけることができます。

次のコマンドを使用して、lmsをシステムパスに追加します。

macOS または Linux でlmsをブートストラップする

ターミナルで次のコマンドを実行します

~/.lmstudio/bin/lms bootstrap

Windows でlmsをブートストラップする

PowerShellで次のコマンドを実行します

cmd /c %USERPROFILE%/.lmstudio/bin/lms.exe bootstrap

インストールを確認する

新しいターミナルウィンドウを開き、lmsを実行します。

これが現在の出力になります

$ lms
lms - LM Studio CLI - v0.2.22
GitHub: https://github.com/lmstudio-ai/lmstudio-cli

Usage
lms <subcommand>

where <subcommand> can be one of:

- status - Prints the status of LM Studio
- server - Commands for managing the local server
- ls - List all downloaded models
- ps - List all loaded models
- load - Load a model
- unload - Unload a model
- create - Create a new project with scaffolding
- log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream`
- version - Prints the version of the CLI
- bootstrap - Bootstrap the CLI

For more help, try running `lms <subcommand> --help`

lmsを使用してワークフローを自動化およびデバッグする

ローカルサーバーを開始および停止する

lms server start
lms server stop

マシン上のローカルモデルを一覧表示する

lms ls

これは、アプリの📂マイモデルタブで設定した現在のLM Studioモデルディレクトリを反映します。

現在ロードされているモデルを一覧表示する

lms ps

モデルをロードする(オプション付き)

lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]

--gpu=1.0は、「計算の100%をGPUにオフロードしようとする」ことを意味します。

  • オプションで、ローカルLLMに識別子を割り当てます
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"

これは、モデル識別子を一貫させる場合に便利です。

モデルをアンロードする

lms unload [--all]