LM Studio 0.3.23
📣 ICYMI: LM Studio が業務利用で無料になりました!詳細はこちら https://lmstudio.dokyumento.jp/blog/free-for-work
LM Studio 0.3.23 が安定版としてリリースされました。今回のビルドは、信頼性の向上、低スペックデバイスでのパフォーマンス、およびいくつかのバグ修正に焦点を当てています。
openai/gpt-ossツール名がモデルに送信される前に一貫してフォーマットされるようになりました。以前は、ツール名にスペースが含まれていると gpt-oss が混乱し、ツール呼び出しに失敗することがありました。ツール名は now snake_case に変換されます。
さらに、チャットでの解析エラーにつながる可能性があったいくつかの解析バグを修正しました。ツール呼び出しの信頼性が大幅に向上したことに気づくかもしれません。
これはバージョン 0.3.22 と比較した動作の変更点です。
message.content には、推論コンテンツや <think> タグは含まれなくなります。choices.message.reasoning (非ストリーミング) および choices.delta.reasoning (ストリーミング) に含まれます。o3-mini の動作と一致します。このバージョンでは、すべての MoE エキスパートウェイトを CPU または GPU (デフォルト) に配置するための高度なモデルロード設定を追加しました。

CPU で MoE エキスパートウェイトを強制するにはオンにします。VRAM が少ないマシンで試してください。
モデル全体を GPU 専用メモリにオフロードするのに十分な VRAM がない場合に役立ちます。その場合は、高度なロード設定で「Force Model Expert Weights onto CPU」オプションをオンにしてみてください。
モデル全体を GPU メモリにオフロードできる場合は、エキスパートウェイトも GPU に配置したままにしておく方が良いです (これがデフォルトのオプションです)。
これは、llama.cpp の --n-cpu-moe と同じ基盤技術を利用しています。
永続的なモデルごとの設定を設定できることを思い出してください。詳細については、ドキュメントを参照してください。
ビルド 3
ビルド 2
/v1/chat/completions に送信した際の「Cannot read properties of undefined (reading 'properties')」エラーを修正Error: EPERM: operation not permitted, unlink エラーを修正ビルド 1
v1/chat/completions で思考タグを出力しない問題を修正message.content には、推論コンテンツまたは特殊タグは含まれませんo3-mini の動作と一致します。choices.message.reasoning (stream=false) および choices.delta.reasoning (stream=true) に含まれます