LM Studio 0.3.15: RTX 50シリーズGPUとAPIにおけるツール使用の改善

2025-04-24

LM Studio 0.3.15 が安定版としてリリースされました。このバージョンには、NVIDIA RTX 50シリーズGPU(CUDA 12)のサポート、新しいシステムプロンプトエディタUIを含むUIの修正が含まれています。さらに、ツール使用のAPIサポート(tool_choiceパラメータ)が改善され、生成された各フラグメントをAPIサーバーログに記録する新しいオプションが追加されました。

アプリ内アップデート、またはhttps://lmstudio.dokyumento.jp/downloadからアップグレードしてください。

RTX 50シリーズGPUとCUDA 12のサポート

LM Studioは、WindowsおよびLinux上のllama.cppエンジンでRTX 50シリーズGPU(CUDA 12.8)をサポートするようになりました。この変更により、RTX 50シリーズGPUでの初回モデルロード時間が期待通りに高速化されます。RTX 50シリーズGPUを搭載したマシンでは、NVIDIAドライババージョンが互換性のある場合、LM Studioは自動的にCUDA 12にアップグレードされます。

最低限必要なドライババージョンは以下の通りです。

  • Windows: 551.61以降
  • Linux: 550.54.14以降

RTX 50シリーズGPUをお持ちで、ドライババージョンに互換性がある場合、LM Studioは自動的にCUDA 12にアップグレードします。RTX 50シリーズGPUをお持ちで、ドライババージョンに互換性がない場合、LM Studioは引き続きCUDA 11を使用します。これはCtrl + Shift + Rで管理できます。

新しいシステムプロンプトエディタUI

システムプロンプトは、モデルの動作をカスタマイズする強力な方法です。数語で構成されることもあれば、時には複数ページにわたることもあります。LM Studio 0.3.15では、より長いプロンプトを編集するための広い視覚スペースが導入されました。サイドバーのミニプロンプトエディタも引き続き使用できます。

ツール使用APIサポートの改善

OpenAIライクなREST APIは、モデルがツールをどのように使用するかを制御できるtool_choiceパラメータをサポートするようになりました。tool_choiceパラメータは3つの値を取ることができます

  • "tool_choice": "none" - モデルはツールを呼び出しません
  • "tool_choice": "auto" - モデルがツールを呼び出すかどうかを判断します
  • "tool_choice": "required" - モデルにツールのみを出力させます(llama.cppエンジンのみ)

また、LM StudioのOpenAI互換モードで、適切であるにもかかわらずチャンクの"finish_reason"が"tool_calls"に設定されていなかったバグを修正しました。

その他... コミュニティプリセット(プレビュー)

プリセットは、システムプロンプトとモデルパラメータをまとめてパッケージ化する便利な方法です。

LM Studio 0.3.15から、作成したプリセットをコミュニティと共有したり、他のユーザーが作成したプリセットをウェブ経由でダウンロードしたりできるようになります ☁️。他のユーザーが作成したプリセットに「いいね」を付けたり、フォークすることも可能です。

この機能を有効にするには、設定 > 一般 > プリセットの公開とダウンロードを有効にするを選択してください。有効にすると、サイドバーでプリセットを右クリックしたときに新しい「公開」ボタンが表示されます。これにより、プリセットをコミュニティに公開できます。

https://lmstudio.dokyumento.jp/loginでユーザー名を取得し、プリセットの共有を始めましょう!プリセットをダウンロードするのにアカウントは必要ありませんが、公開するには必要です。

この機能は現在プレビュー版であり、皆様からのフィードバックを求めています。何かご提案や問題がありましたら、[email protected]までお知らせください。

0.3.15 - 完全なリリースノート

**Build 11**

- Llama 4 prompt template fixes to improve tool call reliability

**Build 10**

- Preview: Add the ability to publish and download presets from the community (head to Settings to enable)
- Add `tool_choice` parameter support to OpenAI-like REST API
  - `"tool_choice": "none"` - Model will not call any tools
  - `"tool_choice": "auto"` - Model decides whether or not to call tools
  - `"tool_choice": "required"` - Forces model to only output tools (llama.cpp engines only)
- Added an option to log each generated fragment to API server logs
- Fixed the erroneous "Client disconnected. Stopping generation..." message when using the API server
- Fixed a front end error when using the preset selection in the developer page
- Fix for GLM prompt template
- Fix Llama 4 prompt template bug "Unknown ArrayValue filter: trim" when using tools

**Build 9**

- Fix: Ensure OpenAI-like REST API chunk "finish_reason" is "tool_calls" when appropriate
- Fixes "N/A" token count in system prompt editor when model is loaded

**Build 8**

- Experimental feature behind flag in Chat Appearance, smooth autoscroll latest chat message to top

**Build 7**

- [CUDA12] Fix incorrect VRAM capacity showing on Hardware page on some machines
- Fix Llama 4 crashes when using GPU settings: priority order, limit offload to dedicated GPU memory
- [GGUF] Fixed bug where top-k sampling parameter could not be set to 0
- [MLX] Removed the checkbox from top-k sampling parameter

**Build 6**

- Chat terminal message styling updates
- Conversation font scale introduced in chat Appearance tab
- Conversation font weight introduced in chat Appearance tab

**Build 5**

- [CUDA] CUDA 12 engine auto-upgrade if driver is compatible and *any* GPU is 50-series and above
- [MLX] Add top-k sampler

**Build 4**

- New: CUDA 12 support in LM Studio's llama.cpp engines (Windows/Linux)
  - Dramatically faster first-time model load times on RTX 50-series GPUs
  - Initial compatibility requirements:
    - NVIDIA driver version:
      - Windows: 551.61 or newer
      - Linux: 550.54.14 or newer
    - At least one GPU of the following:
      - GeForce RTX 5090, RTX 5080, RTX 5070 Ti, or RTX 5070
      - Datacenter GPU with Hopper or Blackwell micro-architecture
  - App will automatically upgrade you if your machine is compatible
  - Check your system compatibility by running `nvidia-smi` in terminal
- Added support for sorting models by last load time in the model loader (the new default)
- Adds new system prompt editor UI
- Adds a toggle to hide/show advanced settings while loading models
- Fix Cogito jinja parsing error "Unexpected character: ~"
- Fixes downloads pane resize bug

**Build 3**

- Fixed lms CLI sometimes not initializing properly on MacOS

**Build 2**

- Fixes bug where the chat sidebar labels would overflow
- Fixes bug where the downloads pane would open at wrong position

**Build 1**

- UI touchups:
  - New and improved chat input box
  - Neatened up app action bar layout
  - Slimmer app sidebar
  - Chat sidebar segments: Context and Model



さらに詳しく