ドキュメント

lms log stream リファレンス

lms log stream を使用すると、モデルへの正確な入力文字列を検査できます。

これは、プロンプトテンプレートの問題やその他の予期しないLLMの動作をデバッグするのに特に役立ちます。


ヒント

まだの場合は、こちらの指示に従って、お使いのマシンに lms をブートストラップしてください。

lms log stream を使用してプロンプトをデバッグする

lms log stream を使用すると、モデルへの正確な入力文字列を検査できます。

ターミナルを開き、次のコマンドを実行します

lms log stream

これにより、LM Studio からログのストリーミングが開始されます。ログを表示するには、チャットUIでメッセージを送信するか、ローカルサーバーにリクエストを送信してください。

出力例

$ lms log stream
I Streaming logs from LM Studio

timestamp: 5/2/2024, 9:49:47 PM
type: llm.prediction.input
modelIdentifier: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf
modelPath: TheBloke/TinyLlama-1.1B-1T-OpenOrca-GGUF/tinyllama-1.1b-1t-openorca.Q2_K.gguf
input: "Below is an instruction that describes a task. Write a response that appropriately completes the request.
### Instruction:
Hello, what's your name?
### Response:
"