ホーム
ログイン
モデルカタログ
仕事での利用
ドキュメント
ブログ
ダウンロード
採用情報
プライバシーポリシー
利用規約
LM Studio 0.3.25
複数のチャットを選択して一括操作、ゴミ箱サポート、Google Embedding Gemma、そしてツール呼び出し機能を備えた NVIDIA Nemotron-Nano-v2 に対応。
LM Studio チーム
•
2025年9月4日
LM Studio 0.3.24
ByteDance/Seed-OSSへの対応、Markdownコードブロックとテーブルの改善、バグ修正。
2025年8月28日
LM Studio 0.3.23
gpt-oss のアプリ内チャットツール呼び出しの信頼性を向上、MoEエキスパートウェイトをCPUに配置する機能。
2025年8月12日
OpenAIのgpt-ossをLM Studioでローカル実行
LM StudioはOpenAIと協力し、gpt-ossモデルをローンチ当日にローカルで実行できるようにしました 🎉
2025年8月5日
LM Studio 0.3.20
バグ修正、UI改善、ツール対応のQwen3-Coder-480B-A35Bに対応。
2025年7月23日
LM Studio 0.3.19
AMD 9000シリーズGPUのROCm / Linuxサポート、モデル読み込みのバグ修正、UI改善、ディスク容量節約のためのエンジン依存関係の自動削除。
2025年7月21日
LM Studio 0.3.18
MCPのバグ修正と改善、OpenAI互換APIの新しいストリーミングオプションとバグ修正、Mistralモデルのツール呼び出し改善、UIの微調整。
2025年7月10日
LM Studioは仕事での利用は無料です
本日より、LM Studioを仕事で利用する際に商用ライセンスを取得する必要がなくなりました。フォームの記入やお問い合わせは不要です。あなたとあなたのチームは、このアプリを自由にお使いいただけます!
Yagil Burowski
2025年7月8日
LM StudioのMCP
LM Studio 0.3.17の新機能:モデルコンテキストプロトコル(MCP)ホストサポート。MCPサーバーをアプリに接続し、ローカルモデルと組み合わせて使用できます。
2025年6月25日
LM Studioにおける統合マルチモーダルMLXエンジンアーキテクチャの紹介
MLX
LM Studioのmlx-engineで、mlx-lmとmlx-vlmを活用して、統合マルチモーダルLLM推論を実現。
mlx-engine
mlx-lm
mlx-vlm
Matt Clayton
2025年5月30日
DeepSeek-R1-0528をあなたのコンピューターで実行可能に
ディストリビューションされたDeepSeek R1 0528モデル(8B)を、LM StudioでMac、Windows、Linux上のRAM 4GBからローカル実行できます。ツール使用と推論をサポート。
2025年5月29日
LM Studio 0.3.16
コミュニティプリセットのパブリックプレビュー、最近使用されなかったランタイム拡張パックの自動削除、LLMをテキスト埋め込みモデルとして使用する方法。
2025年5月23日
LM Studio 0.3.15:RTX 50シリーズGPUとAPIのツール使用改善
CUDA 12サポート、新しいシステムプロンプトエディタUI、ツール使用APIサポートの改善、コミュニティプリセットのプレビュー。
2025年4月24日
LM Studio 0.3.14:マルチGPUコントロール 🎛️
マルチGPUセットアップのための高度なコントロール:特定のGPUの有効/無効、割り当て戦略の選択、モデルウェイトを専用GPUメモリに制限、その他。
2025年3月27日
LM Studio 0.3.13:Google Gemma 3 サポート
LM Studio 0.3.13は、Googleの最新マルチモーダルモデル、Gemma 3をサポートします。お使いのMac、Windows、Linuxマシンでローカル実行できます。
2025年3月12日
LM Studio 0.3.12
RAGのためのバグ修正とドキュメントチャンキング速度の向上
2025年3月7日
LM Studio 0.3.11
LM Studio SDK(Python、TS/JS)サポート、高度なSpeculative Decoding設定、バグ修正
2025年3月3日
lmstudio-python と lmstudio-js の紹介
lmstudio-python
lmstudio-js
PythonとTypeScript向けのデベロッパーSDKが1.0.0リリースで利用可能になりました。ローカルAIソフトウェアのためのプログラマブルツールキット。
LM Studio 0.3.10:🔮 Speculative Decoding
llama.cpp および MLX のための Speculative Decoding による推論速度向上
llama.cpp
2025年2月18日
LM Studio 0.3.9
アイドルTTL、ランタイムの自動更新、HFリポジトリのネストされたフォルダサポート、チャット補完応答での reasoning_content の分離
reasoning_content
2025年1月30日
DeepSeek R1:オープンソースの推論モデル
DeepSeek R1モデルをローカルおよびオフラインでコンピューター上で実行
2025年1月29日
LM Studio 0.3.8
DeepSeek R1の思考UI、LaTeXレンダリングの改善、バグ修正
2025年1月21日
LM Studio 0.3.7
DeepSeek R1サポート、llama.cppモデルのKVキャッシュ量子化
2025年1月20日
LM Studio 0.3.6
ツール呼び出しAPI(ベータ版)、新しいインストーラー/アプデーターシステム、Qwen2VL および QVQ(GGUFおよびMLXの両方)のサポート
Qwen2VL
QVQ
2025年1月6日
venvstacks の紹介:レイヤードPython仮想環境
venvstacks
Pythonのsitecustomize.pyに基づいた、ポータブルで決定論的な形式にPythonアプリケーションとそのすべての依存関係をパッケージ化するためのオープンソースユーティリティ。
sitecustomize.py
Alyssa Coghlan,
2024年10月31日
LM Studio 0.3.5
ヘッドレスモード、オンデマンドモデルロード、サーバー自動起動、ターミナルからのモデルダウンロードCLIコマンド、Apple MLXによるPixtralサポート。
2024年10月22日
LM Studio 0.3.4、Apple MLX搭載
Apple Silicon Mac用のMLXを使用した、超高速で効率的なオンデバイスLLM推論。
Yagil Burowski,
Neil Mehta,
2024年10月8日
LM Studio 0.3.3
設定プリセットが復活!ユーザー入力とシステムプロンプトのライブトークンカウントも復活。多くのバグ修正。コミュニティ貢献者のおかげで、いくつかの新しいアプリ言語も追加。
2024年9月30日
LM Studio 0.3.2
LM Studio 0.3.2 リリースノート
2024年8月27日
LM Studio 0.3.1
LM Studio 0.3.1 リリースノート
2024年8月23日
LM Studio 0.3.0
LM Studio 0.3.0が登場!内蔵(ナイーブ)RAG、ライトテーマ、国際化、構造化出力API、ネットワーク経由でのサーブなど。
2024年8月22日
Llama 3.1
LM StudioでLlama 3.1をコンピューター上でローカル実行。
2024年7月23日
lms の紹介:LM StudioのCLI
lms
ローカルLLMワークフローのスクリプティングと自動化のためのコマンドラインツール。
2024年5月2日