lms のご紹介:LM Studio の CLI

2024-05-02

LM Studio

本日、LM Studio 0.2.22 と共に、LM Studio のコンパニオン CLI ツールである lms の最初のバージョンをリリースしました。

lms を使用すると、モデルのロード/アンロード、API サーバーの開始/停止、および(出力だけでなく)生の LLM 入力を検査できます。これは GitHub で開発されており、コミュニティからの Issue や PR を歓迎します。

lms は LM Studio に同梱されており、LM Studio の作業ディレクトリ内の ~/.lmstudio/bin/ に存在します。LM Studio を更新すると、lms のバージョンも更新されます。開発者の場合、ソースから lms をビルドすることもできます。

システムへの lms のブートストラップ

lms を使用するには、LM Studio を少なくとも一度実行する必要があります。

その後、お使いのオペレーティングシステムに応じて、ターミナルを開いて次のいずれかのコマンドを実行してください。

# Mac / Linux:
~/.lmstudio/bin/lms bootstrap

# Windows:
cmd /c %USERPROFILE%/.lmstudio/bin/lms.exe bootstrap

その後、新しいターミナルウィンドウを開き、lms を実行します。

これは、現在表示される出力です。

$ lms
lms - LM Studio CLI - v0.2.22
GitHub: https://github.com/lmstudio-ai/lmstudio-cli

Usage
lms <subcommand>

where <subcommand> can be one of:

- status - Prints the status of LM Studio
- server - Commands for managing the local server
- ls - List all downloaded models
- ps - List all loaded models
- load - Load a model
- unload - Unload a model
- create - Create a new project with scaffolding
- log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream`
- version - Prints the version of the CLI
- bootstrap - Bootstrap the CLI

For more help, try running `lms <subcommand> --help`

lms は MIT ライセンスで提供されており、GitHub のこのリポジトリで開発されています。

https://github.com/lmstudio-ai/lms

lms を使用してワークフローを自動化およびデバッグする

ローカルサーバーの開始と停止

lms server start
lms server stop

マシン上のローカルモデルのリスト表示

lms ls

これは、アプリの 📂 マイモデル タブで設定した、現在の LM Studio モデルディレクトリを反映します。

現在ロードされているモデルのリスト表示

lms ps

モデルのロード(オプション付き)

lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]

--gpu=1.0 は、「計算の 100% を GPU にオフロードすることを試みる」という意味です。

  • オプションで、ローカル LLM に識別子を割り当てる
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"

これは、モデル識別子を一貫させたい場合に便利です。

モデルのアンロード

lms unload [--all]

lms log stream でプロンプトをデバッグする

lms log stream を使用すると、モデルに渡される正確な入力文字列を検査できます。

これは、プロンプトテンプレートの問題やその他の予期しない LLM の動作のデバッグに特に役立ちます。

$ lms log stream
I Streaming logs from LM Studio

timestamp: 5/2/2024, 9:49:47 PM
type: llm.prediction.input
modelIdentifier: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf
modelPath: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf
input: "Below is an instruction that describes a task. Write a response that appropriately completes the request.
#### Instruction:
Hello, what's your name?
#### Response:
"

lmstudio.js

lms は、LM Studio と対話するために lmstudio.js を使用します。

あなたは、lms ができること、そしてそれ以上のことを行う独自のプログラムを構築できます。

lmstudio.js は、プレリリース版のパブリックアルファです。GitHub でフォローしてください:https://github.com/lmstudio-ai/lmstudio.js


lms および lmstudio.js に関するあらゆることを、LM Studio Discord Server の新しい #dev-chat チャンネルで話し合いましょう。LM Studio Discord Server

Mac / Windows / Linux 用の LM Studio を https://lmstudio.dokyumento.jp からダウンロードしてください。

LM Studio 0.2.22 AMD ROCm - Technology Preview は、https://lmstudio.dokyumento.jp/rocm で利用可能です。

Twitter での LM Studio:https://twitter.com/lmstudio