LM Studio 0.3.15: RTX 50シリーズGPUとAPIにおけるツール使用の改善
LM Studio 0.3.15 が安定版としてリリースされました。このバージョンには、NVIDIA RTX 50シリーズGPU(CUDA 12)のサポート、新しいシステムプロンプトエディタUIを含むUIの修正が含まれています。さらに、ツール使用のAPIサポート(tool_choice
パラメータ)が改善され、生成された各フラグメントをAPIサーバーログに記録する新しいオプションが追加されました。
LM Studioは、WindowsおよびLinux上のllama.cpp
エンジンでRTX 50シリーズGPU(CUDA 12.8)をサポートするようになりました。この変更により、RTX 50シリーズGPUでの初回モデルロード時間が期待通りに高速化されます。RTX 50シリーズGPUを搭載したマシンでは、NVIDIAドライババージョンが互換性のある場合、LM Studioは自動的にCUDA 12にアップグレードされます。
最低限必要なドライババージョンは以下の通りです。
RTX 50シリーズGPUをお持ちで、ドライババージョンに互換性がある場合、LM Studioは自動的にCUDA 12にアップグレードします。RTX 50シリーズGPUをお持ちで、ドライババージョンに互換性がない場合、LM Studioは引き続きCUDA 11を使用します。これはCtrl + Shift + R
で管理できます。
システムプロンプトは、モデルの動作をカスタマイズする強力な方法です。数語で構成されることもあれば、時には複数ページにわたることもあります。LM Studio 0.3.15では、より長いプロンプトを編集するための広い視覚スペースが導入されました。サイドバーのミニプロンプトエディタも引き続き使用できます。
OpenAIライクなREST APIは、モデルがツールをどのように使用するかを制御できるtool_choice
パラメータをサポートするようになりました。tool_choice
パラメータは3つの値を取ることができます
"tool_choice": "none"
- モデルはツールを呼び出しません"tool_choice": "auto"
- モデルがツールを呼び出すかどうかを判断します"tool_choice": "required"
- モデルにツールのみを出力させます(llama.cppエンジンのみ)また、LM StudioのOpenAI互換モードで、適切であるにもかかわらずチャンクの"finish_reason"が"tool_calls"に設定されていなかったバグを修正しました。
プリセットは、システムプロンプトとモデルパラメータをまとめてパッケージ化する便利な方法です。
LM Studio 0.3.15から、作成したプリセットをコミュニティと共有したり、他のユーザーが作成したプリセットをウェブ経由でダウンロードしたりできるようになります ☁️。他のユーザーが作成したプリセットに「いいね」を付けたり、フォークすることも可能です。
この機能を有効にするには、設定 > 一般 > プリセットの公開とダウンロードを有効にするを選択してください。有効にすると、サイドバーでプリセットを右クリックしたときに新しい「公開」ボタンが表示されます。これにより、プリセットをコミュニティに公開できます。
https://lmstudio.dokyumento.jp/loginでユーザー名を取得し、プリセットの共有を始めましょう!プリセットをダウンロードするのにアカウントは必要ありませんが、公開するには必要です。
この機能は現在プレビュー版であり、皆様からのフィードバックを求めています。何かご提案や問題がありましたら、[email protected]までお知らせください。
**Build 11** - Llama 4 prompt template fixes to improve tool call reliability **Build 10** - Preview: Add the ability to publish and download presets from the community (head to Settings to enable) - Add `tool_choice` parameter support to OpenAI-like REST API - `"tool_choice": "none"` - Model will not call any tools - `"tool_choice": "auto"` - Model decides whether or not to call tools - `"tool_choice": "required"` - Forces model to only output tools (llama.cpp engines only) - Added an option to log each generated fragment to API server logs - Fixed the erroneous "Client disconnected. Stopping generation..." message when using the API server - Fixed a front end error when using the preset selection in the developer page - Fix for GLM prompt template - Fix Llama 4 prompt template bug "Unknown ArrayValue filter: trim" when using tools **Build 9** - Fix: Ensure OpenAI-like REST API chunk "finish_reason" is "tool_calls" when appropriate - Fixes "N/A" token count in system prompt editor when model is loaded **Build 8** - Experimental feature behind flag in Chat Appearance, smooth autoscroll latest chat message to top **Build 7** - [CUDA12] Fix incorrect VRAM capacity showing on Hardware page on some machines - Fix Llama 4 crashes when using GPU settings: priority order, limit offload to dedicated GPU memory - [GGUF] Fixed bug where top-k sampling parameter could not be set to 0 - [MLX] Removed the checkbox from top-k sampling parameter **Build 6** - Chat terminal message styling updates - Conversation font scale introduced in chat Appearance tab - Conversation font weight introduced in chat Appearance tab **Build 5** - [CUDA] CUDA 12 engine auto-upgrade if driver is compatible and *any* GPU is 50-series and above - [MLX] Add top-k sampler **Build 4** - New: CUDA 12 support in LM Studio's llama.cpp engines (Windows/Linux) - Dramatically faster first-time model load times on RTX 50-series GPUs - Initial compatibility requirements: - NVIDIA driver version: - Windows: 551.61 or newer - Linux: 550.54.14 or newer - At least one GPU of the following: - GeForce RTX 5090, RTX 5080, RTX 5070 Ti, or RTX 5070 - Datacenter GPU with Hopper or Blackwell micro-architecture - App will automatically upgrade you if your machine is compatible - Check your system compatibility by running `nvidia-smi` in terminal - Added support for sorting models by last load time in the model loader (the new default) - Adds new system prompt editor UI - Adds a toggle to hide/show advanced settings while loading models - Fix Cogito jinja parsing error "Unexpected character: ~" - Fixes downloads pane resize bug **Build 3** - Fixed lms CLI sometimes not initializing properly on MacOS **Build 2** - Fixes bug where the chat sidebar labels would overflow - Fixes bug where the downloads pane would open at wrong position **Build 1** - UI touchups: - New and improved chat input box - Neatened up app action bar layout - Slimmer app sidebar - Chat sidebar segments: Context and Model