🎉 新機能: lmstudio-python
および lmstudio-js
SDKライブラリが登場!


あなたのローカルAIツールキット。
Llama、DeepSeek、Qwen、PhiなどのモデルをPCにダウンロードして実行できます。
LM Studioを利用することにより、あなたは弊社の利用規約に同意するものとします。


簡単に始められ、探求する余地も多数
オープンソースモデルを見つけてダウンロードし、チャットで利用したり、ローカルサーバーを実行したりできます
LlamaやDeepSeekのようなLLMをPCで簡単に実行できます。専門知識は不要です。

LM Studioでできること...

クロスプラットフォーム対応のローカルAI SDK
LM Studio SDK: 依存関係を気にせずローカルAIアプリを構築
import lmstudio as lms llm = lms.llm() # Get any loaded LLM prediction = llm.respond_stream("What is a Capybara?") for token in prediction: print(token, end="", flush=True)
よくある質問
要約: このアプリはデータを収集したり、あなたの行動を監視したりしません。あなたのデータはあなたのマシンにローカルに保存されます。
いいえ。ローカルLLMを使用する主な理由の1つはプライバシーであり、LM Studioはそのために設計されています。あなたのデータはプライベートなままで、あなたのマシンにローカルに保持されます。詳細については、オフライン操作のページをご覧ください。
はい!募集中の職種については、採用情報ページをご覧ください。
LM Studioは、M1/M2/M3/M4 Mac、およびAVX2をサポートするプロセッサを搭載したWindows (x86またはARM) とLinux PC (x86) で動作します。最新の情報については、システム要件のページをご覧ください。
GGUF
(llama.cpp) 形式および MLX
形式 (Macのみ) のHugging Faceから互換性のある大規模言語モデル (LLM) を実行できます。GGUF
テキスト埋め込みモデルも実行可能です。一部のモデルはサポートされていない場合や、お使いのマシンで実行するには大きすぎる場合があります。画像生成モデルはまだサポートされていません。注目のモデルについては、モデルカタログをご覧ください。
llama.cpp
は、エッジデバイスでLLMを強力かつ効率的に実行する方法を提供する素晴らしいオープンソースライブラリです。Georgi Gerganovによって作成され、彼が主導しています。LM Studioはllama.cppを活用して、Windows、Linux、MacでLLMを実行します。
MLX
はAppleの新しい機械学習フレームワークです。MLXはM1/M2/M3/M4 Macで効率的かつ非常に高速です。LM StudioはMLXを活用してAppleシリコン上でLLMを実行し、Macのユニファイドメモリ、CPU、GPUの全能力を利用します。LM StudioのMLXエンジン (mlx-engine
) はオープンソースでGitHub (MIT) で公開されています。ぜひスターをお願いします!コミュニティ貢献者も募集しています。
LM Studio @ Work リクエストフォームにご記入ください。できるだけ早くご連絡いたします。