LM Studio 0.3.16 リリースノート
LM Studio 0.3.16 が安定版として利用可能になりました。このバージョンには、コミュニティプリセットの公開プレビュー、使用頻度の低いランタイム拡張パックの自動削除、およびLLMをテキスト埋め込みモデルとして使用する方法が含まれています。また、CLIにlms chat
コマンドが導入され、ターミナルでモデルとチャットできるようになりました。
📣 0.3.16の初期ビルド(ビルド6)では、Windowsのアプリバンドル内にエンジンが不足していました。このバージョンを初めてインストールした場合、
Ctrl + Shift + R
にアクセスしてエンジンを手動でインストールするか、https://lmstudio.dokyumento.jp/downloadから0.3.16ビルド7をダウンロードして再インストールしてください。
プリセットをLM Studioコミュニティハブに公開し、他のユーザーと共有する機能
スタッフのおすすめを改善:GGUFやMLXなどのフォーマットを単一のエントリに統合する新しい集約形式を導入。
モデルのカスタム設定
モデルのロードオプションとGPU設定に「KVキャッシュをGPUメモリにオフロード」オプションを追加
CLIにlms chat
コマンドを追加し、ターミナルでモデルとチャットできるようにしました(@mayferに感謝します)
LM Studio REST API (/api/v0
): GET /models
レスポンスでモデルの機能を返します
"capabilities": ["tool_use"]
使用頻度の低いランタイム拡張パックの自動削除
⌘/Ctrl + ,
)で無効にできますサイドバーが折りたたまれているときに、チャットトップバーにシステムプロンプトボタンを表示
Cmd / Ctrl + Shift + D
を使用して、現在のチャットの複製を作成します
Cmd / Ctrl + E
を使用して、システムプロンプトエディタを開きます
システムプロンプトエディタタブが開いているときに、Cmd / Ctrl + W
を使用して閉じます
アプリ設定(⌘/Ctrl + ,): 各セクションに独自のタブが追加され、ナビゲーションが容易になりました
「ユーザー」UIモードでダウンロードパネルにアクセスするボタンを追加
モデルエディタ(マイモデルの⚙️)にドロップダウンを追加し、モデルのドメインタイプを上書きできるようにしました
チャットサイドバー本体に「Finderで表示」コンテキストメニューオプションを追加
[MLX] chat_template.jinja
をチャットテンプレートのソースとして登録
バグ修正
Qwen3 jinjaテンプレートの解析エラー"OpenSquareBracket !== CloseStatement"
を修正
nomic-bert-moe、nomic-embed-codeが埋め込みモデルの下に表示されない問題を修正
メッセージ生成の下部に表示されるちらつきのある水平線を修正
チャットが選択されていない場合に新しいフォルダを作成できない問題を修正
プロンプト処理の%UIが表示されない問題を修正
バグ修正: [OpenAI風REST API] ストリーミングされる関数呼び出しの最初のパケットの後で、空の関数名文字列を追加しないように修正
バグ修正: ダウンロード済みモデルを一覧表示する際に、サポートされていないモデルを正しく除外するように修正
バグ修正: Vulkan iGPUメモリが共有メモリであると仮定しないように修正
アーキテクチャバッジのテキスト配置を修正
SmolVLM jinjaレンダリングエラー「Expected iterable type in for loop: got StringValue」を修正
GTE Qwen埋め込みモデルがテキスト埋め込みとして認識されない問題を修正
特定の形式のエンジン拡張パックがインストールされていない場合にインデックス作成が失敗するバグを修正
RAG使用時に一部の文字列が[object Object]
として解析されるバグを修正
トレイメニューの「モデルをロード」でモデルが重複して表示されるバグを修正
[MLX] ModuleNotFoundError: No module named 'mlx_engine'
を引き起こすインストール問題を修正