ドキュメント
lms load
リファレンス
lms load
コマンドはモデルをメモリにロードします。オプションで、コンテキスト長、GPUオフロード、TTLなどのパラメータを設定できます。
[path] (オプション) : string
ロードするモデルのパスです。指定しない場合、選択するよう促されます
--ttl (オプション) : number
指定した場合、モデルがこの秒数使用されなかったときにアンロードされます
--gpu (オプション) : string
GPUにオフロードする量。値: 0-1, off, max
--context-length (オプション) : number
テキスト生成時にコンテキストとして考慮するトークンの数
--identifier (オプション) : string
API参照のためにロードされたモデルに割り当てる識別子
以下のコマンドを実行して、モデルをメモリにロードします
lms load <model_key>
まずlms ls
を実行してローカルにダウンロードされたモデルをリストすることで、model_key
を見つけることができます。
オプションで、API参照のためにロードされたモデルにカスタム識別子を割り当てることができます
lms load <model_key> --identifier "my-custom-identifier"
その後、後続のコマンドやAPI呼び出し(model
パラメータ)で、識別子my_model
を使ってこのモデルを参照できるようになります。
--context-length
フラグを使用してモデルをロードする際に、コンテキスト長を設定できます
lms load <model_key> --context-length 4096
これは、テキスト生成時にモデルがコンテキストとして考慮するトークンの数を決定します。
--gpu
フラグでGPUメモリの使用量を制御します
lms load <model_key> --gpu 0.5 # Offload 50% of layers to GPU lms load <model_key> --gpu max # Offload all layers to GPU lms load <model_key> --gpu off # Disable GPU offloading
指定しない場合、LM Studioは最適なGPU使用量を自動的に決定します。
--ttl
フラグ(秒単位)で自動アンロードタイマーを設定します
lms load <model_key> --ttl 3600 # Unload after 1 hour of inactivity
lms load
はリモートのLM Studioインスタンスに接続するための--host
フラグをサポートしています。
lms load <model_key> --host <host>
これが機能するには、リモートのLM Studioインスタンスが実行されており、ローカルマシンからアクセス可能である必要があります(例:同じサブネットでアクセス可能であること)。
このページ
パラメータ
モデルをロードする
カスタム識別子を設定する
コンテキスト長を設定する
GPUオフロードを設定する
TTLを設定する
リモートのLM Studioインスタンスで操作する