ドキュメント

lmsログストリーム

lms log stream を使うと、モデルに送られる正確な入力文字列を調べることができます。

これは、プロンプトテンプレートの問題や、その他の予期しないLLMの動作をデバッグするのに特に役立ちます。


プロのヒント

まだの場合、こちらの指示に従って、お使いのマシンで lms をブートストラップしてください。

lms log stream でプロンプトをデバッグする

lms log stream を使うと、モデルに送られる正確な入力文字列を調べることができます。

ターミナルを開き、次のコマンドを実行します

lms log stream

これにより、LM Studioからログのストリーミングが開始されます。チャットUIでメッセージを送信するか、ローカルサーバーにリクエストを送信してログを確認してください。

出力例

$ lms log stream
I Streaming logs from LM Studio

timestamp: 5/2/2024, 9:49:47 PM
type: llm.prediction.input
modelIdentifier: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf
modelPath: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf
input: "Below is an instruction that describes a task. Write a response that appropriately completes the request.
### Instruction:
Hello, what's your name?
### Response:
"