ドキュメント

lms load リファレンス

lms load コマンドはモデルをメモリにロードします。オプションで、コンテキスト長、GPUオフロード、TTLなどのパラメータを設定できます。

パラメータ

[path] (オプション) : string

ロードするモデルのパスです。指定しない場合、選択するよう促されます

--ttl (オプション) : number

指定した場合、モデルがこの秒数使用されなかったときにアンロードされます

--gpu (オプション) : string

GPUにオフロードする量。値: 0-1, off, max

--context-length (オプション) : number

テキスト生成時にコンテキストとして考慮するトークンの数

--identifier (オプション) : string

API参照のためにロードされたモデルに割り当てる識別子

モデルをロードする

以下のコマンドを実行して、モデルをメモリにロードします

lms load <model_key>

まずlms lsを実行してローカルにダウンロードされたモデルをリストすることで、model_keyを見つけることができます。

カスタム識別子を設定する

オプションで、API参照のためにロードされたモデルにカスタム識別子を割り当てることができます

lms load <model_key> --identifier "my-custom-identifier"

その後、後続のコマンドやAPI呼び出し(modelパラメータ)で、識別子my_modelを使ってこのモデルを参照できるようになります。

コンテキスト長を設定する

--context-lengthフラグを使用してモデルをロードする際に、コンテキスト長を設定できます

lms load <model_key> --context-length 4096

これは、テキスト生成時にモデルがコンテキストとして考慮するトークンの数を決定します。

GPUオフロードを設定する

--gpuフラグでGPUメモリの使用量を制御します

lms load <model_key> --gpu 0.5    # Offload 50% of layers to GPU
lms load <model_key> --gpu max    # Offload all layers to GPU
lms load <model_key> --gpu off    # Disable GPU offloading

指定しない場合、LM Studioは最適なGPU使用量を自動的に決定します。

TTLを設定する

--ttlフラグ(秒単位)で自動アンロードタイマーを設定します

lms load <model_key> --ttl 3600   # Unload after 1 hour of inactivity

リモートのLM Studioインスタンスで操作する

lms loadはリモートのLM Studioインスタンスに接続するための--hostフラグをサポートしています。

lms load <model_key> --host <host>

これが機能するには、リモートのLM Studioインスタンスが実行されており、ローカルマシンからアクセス可能である必要があります(例:同じサブネットでアクセス可能であること)。