ドキュメント
lms — LM Studio の CLI
コマンドラインユーティリティ lms を使って始めましょう。
LM Studio には、ローカル LLM ワークフローのスクリプト作成と自動化のためのコマンドラインツール lms が付属しています。
lms は MIT ライセンスで、GitHub のこのリポジトリで開発されています: https://github.com/lmstudio-ai/lms
👉 lms を使用するには、LM Studio を少なくとも一度実行する必要があります。
lms のインストールlms は LM Studio に同梱されており、LM Studio の作業ディレクトリの /bin フォルダ内にあります。
lms をシステムパスに追加するには、次のコマンドを使用します。
lms をブートストラップするターミナルで次のコマンドを実行してください
~/.lmstudio/bin/lms bootstrap
lms をブートストラップするPowerShell で次のコマンドを実行してください
cmd /c %USERPROFILE%/.lmstudio/bin/lms.exe bootstrap
新しいターミナルウィンドウを開き、lms を実行します。
これが現在の出力です
$ lms lms - LM Studio CLI - v0.2.22 GitHub: https://github.com/lmstudio-ai/lmstudio-cli Usage lms <subcommand> where <subcommand> can be one of: - status - Prints the status of LM Studio - server - Commands for managing the local server - ls - List all downloaded models - ps - List all loaded models - load - Load a model - unload - Unload a model - create - Create a new project with scaffolding - log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream` - version - Prints the version of the CLI - bootstrap - Bootstrap the CLI For more help, try running `lms <subcommand> --help`
lms を使用してワークフローを自動化およびデバッグするlms server start lms server stop
lms ls
これは、アプリの「📂 マイモデル」タブで設定した現在の LM Studio モデルディレクトリを反映します。
lms ps
lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]
--gpu=1.0 は「計算の100%をGPUにオフロードしようとする」ことを意味します。
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"
これは、モデル識別子を一貫させたい場合に便利です。
lms unload [--all]
このページのソースは GitHub で利用可能です。
このページについて
lms のインストール
- macOS または Linux で lms をブートストラップする
- Windows で lms をブートストラップする
- インストールの検証
lms を使用してワークフローを自動化およびデバッグする
ローカルサーバーの開始と停止
マシン上のローカルモデルを一覧表示する
現在ロードされているモデルを一覧表示する
モデルをロードする(オプション付き)
モデルをアンロードする