🎉 新機能: lmstudio-python および lmstudio-js SDKライブラリが登場!

LM Studio

あなたのローカルAIツールキット。

Llama、DeepSeek、Qwen、PhiなどのモデルをPCにダウンロードして実行できます。

Screenshot of the LM Studio application
LMmy selecting options
初心者にも優しく、プロフェッショナルな機能も充実

簡単に始められ、探求する余地も多数

オープンソースモデルを見つけてダウンロードし、チャットで利用したり、ローカルサーバーを実行したりできます

LlamaやDeepSeekのようなLLMをPCで簡単に実行できます。専門知識は不要です。

Screenshot showing Run LLMs on Your Laptop or PC
ライブラリ:

クロスプラットフォーム対応のローカルAI SDK

LM Studio SDK: 依存関係を気にせずローカルAIアプリを構築

Python
TypeScript
pip を使ってSDKをインストール
pip install lmstudio
LLMチャット
エージェントツール
構造化出力
モデルの管理
import lmstudio as lms

llm = lms.llm() # Get any loaded LLM

prediction = llm.respond_stream("What is a Capybara?")

for token in prediction:
    print(token, end="", flush=True)

よくある質問

要約: このアプリはデータを収集したり、あなたの行動を監視したりしません。あなたのデータはあなたのマシンにローカルに保存されます。

いいえ。ローカルLLMを使用する主な理由の1つはプライバシーであり、LM Studioはそのために設計されています。あなたのデータはプライベートなままで、あなたのマシンにローカルに保持されます。詳細については、オフライン操作のページをご覧ください。

はい!募集中の職種については、採用情報ページをご覧ください。

LM Studioは、M1/M2/M3/M4 Mac、およびAVX2をサポートするプロセッサを搭載したWindows (x86またはARM) とLinux PC (x86) で動作します。最新の情報については、システム要件のページをご覧ください。

GGUF (llama.cpp) 形式および MLX 形式 (Macのみ) のHugging Faceから互換性のある大規模言語モデル (LLM) を実行できます。GGUF テキスト埋め込みモデルも実行可能です。一部のモデルはサポートされていない場合や、お使いのマシンで実行するには大きすぎる場合があります。画像生成モデルはまだサポートされていません。注目のモデルについては、モデルカタログをご覧ください。

LM StudioのGUIアプリはオープンソースではありません。しかし、LM StudioのCLI lmsCore SDK、および弊社のMLX推論エンジンはすべてMITライセンスの下でオープンソースとして提供されています。さらに、LM Studioはllama.cppのような主要なオープンソースライブラリを、自分でコンパイルしたり統合したりする専門知識なしに簡単に使用できるようにします。

llama.cppは、エッジデバイスでLLMを強力かつ効率的に実行する方法を提供する素晴らしいオープンソースライブラリです。Georgi Gerganovによって作成され、彼が主導しています。LM Studioはllama.cppを活用して、Windows、Linux、MacでLLMを実行します。

MLXはAppleの新しい機械学習フレームワークです。MLXはM1/M2/M3/M4 Macで効率的かつ非常に高速です。LM StudioはMLXを活用してAppleシリコン上でLLMを実行し、Macのユニファイドメモリ、CPU、GPUの全能力を利用します。LM StudioのMLXエンジン (mlx-engine) はオープンソースでGitHub (MIT) で公開されています。ぜひスターをお願いします!コミュニティ貢献者も募集しています。

LM Studio @ Work リクエストフォームにご記入ください。できるだけ早くご連絡いたします。

LM Studio

LM Studioを始める

🧙👷🧑‍🍳採用募集中