lms のご紹介:LM Studio の CLI

本日、LM Studio 0.2.22 と共に、LM Studio のコンパニオン CLI ツールである lms の最初のバージョンをリリースしました。
lms を使用すると、モデルのロード/アンロード、API サーバーの開始/停止、および(出力だけでなく)生の LLM 入力を検査できます。これは GitHub で開発されており、コミュニティからの Issue や PR を歓迎します。
lms は LM Studio に同梱されており、LM Studio の作業ディレクトリ内の ~/.lmstudio/bin/ に存在します。LM Studio を更新すると、lms のバージョンも更新されます。開発者の場合、ソースから lms をビルドすることもできます。
lms のブートストラップlms を使用するには、LM Studio を少なくとも一度実行する必要があります。
その後、お使いのオペレーティングシステムに応じて、ターミナルを開いて次のいずれかのコマンドを実行してください。
# Mac / Linux: ~/.lmstudio/bin/lms bootstrap # Windows: cmd /c %USERPROFILE%/.lmstudio/bin/lms.exe bootstrap
その後、新しいターミナルウィンドウを開き、lms を実行します。
これは、現在表示される出力です。
$ lms lms - LM Studio CLI - v0.2.22 GitHub: https://github.com/lmstudio-ai/lmstudio-cli Usage lms <subcommand> where <subcommand> can be one of: - status - Prints the status of LM Studio - server - Commands for managing the local server - ls - List all downloaded models - ps - List all loaded models - load - Load a model - unload - Unload a model - create - Create a new project with scaffolding - log - Log operations. Currently only supports streaming logs from LM Studio via `lms log stream` - version - Prints the version of the CLI - bootstrap - Bootstrap the CLI For more help, try running `lms <subcommand> --help`
lms は MIT ライセンスで提供されており、GitHub のこのリポジトリで開発されています。
https://github.com/lmstudio-ai/lms
lms を使用してワークフローを自動化およびデバッグするlms server start lms server stop
lms ls
これは、アプリの 📂 マイモデル タブで設定した、現在の LM Studio モデルディレクトリを反映します。
lms ps
lms load [--gpu=max|auto|0.0-1.0] [--context-length=1-N]
--gpu=1.0 は、「計算の 100% を GPU にオフロードすることを試みる」という意味です。
lms load TheBloke/phi-2-GGUF --identifier="gpt-4-turbo"
これは、モデル識別子を一貫させたい場合に便利です。
lms unload [--all]
lms log stream でプロンプトをデバッグするlms log stream を使用すると、モデルに渡される正確な入力文字列を検査できます。
これは、プロンプトテンプレートの問題やその他の予期しない LLM の動作のデバッグに特に役立ちます。
$ lms log stream I Streaming logs from LM Studio timestamp: 5/2/2024, 9:49:47 PM type: llm.prediction.input modelIdentifier: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf modelPath: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf input: "Below is an instruction that describes a task. Write a response that appropriately completes the request. #### Instruction: Hello, what's your name? #### Response: "
lms は、LM Studio と対話するために lmstudio.js を使用します。
あなたは、lms ができること、そしてそれ以上のことを行う独自のプログラムを構築できます。
lmstudio.js は、プレリリース版のパブリックアルファです。GitHub でフォローしてください:https://github.com/lmstudio-ai/lmstudio.js。
lms および lmstudio.js に関するあらゆることを、LM Studio Discord Server の新しい #dev-chat チャンネルで話し合いましょう。LM Studio Discord Server。
Mac / Windows / Linux 用の LM Studio を https://lmstudio.dokyumento.jp からダウンロードしてください。
LM Studio 0.2.22 AMD ROCm - Technology Preview は、https://lmstudio.dokyumento.jp/rocm で利用可能です。
Twitter での LM Studio:https://twitter.com/lmstudio