LM StudioLM Studio
ローカルLLMの発見、ダウンロード、実行

対応アーキテクチャ

Llama 3.2
Mistral
Phi
Gemma
DeepSeek
Qwen 2.5

LM Studioを使うと…

🤖 • ラップトップでLLMを完全にオフラインで実行できます

📚 • ローカルドキュメントとチャットできます(0.3の新機能)

👾 • アプリ内チャットUIまたはOpenAI互換のローカルサーバーを介してモデルを使用できます

📂 • Hugging Face 🤗リポジトリから互換性のあるモデルファイルをダウンロードできます

🔭 • アプリの[発見]ページで、注目すべき新しいLLMを発見できます

LM Studioは、Hugging FaceのGGUF Llama、Mistral、Phi、Gemma、StarCoderなどのモデルをサポートしています

最小要件:M1/M2/M3/M4 Mac、またはAVX2をサポートするプロセッサを搭載したWindows / Linux PC。

のおかげで実現しました llama.cpp プロジェクト。

私たちはチームを拡大しています。私たちの 採用情報ページ.

技術ドキュメントを参照してください https://lmstudio.dokyumento.jp/docs.

よくある質問

要約: アプリはデータを収集したり、あなたの行動を監視したりしません。あなたのデータはあなたのマシンにローカルに保存されます。個人使用は無料です。ビジネスでの使用については、お問い合わせください。

LM Studioはデータを収集しますか?

いいえ。ローカルLLMを使用する主な理由の1つはプライバシーであり、LM Studioはそれを念頭に置いて設計されています。あなたのデータはあなたのマシンにプライベートでローカルに保存されます。

詳細については、ドキュメント > オフライン操作を参照してください。

職場でLM Studioを使用できますか?

ぜひご利用ください。LM Studio @ Workリクエストフォームにご記入ください。できるだけ早くご連絡いたします。

ハードウェア/ソフトウェアの最小要件は何ですか?

最新情報については、システム要件ページをご覧ください。

採用していますか?

募集中のポジションについては、採用情報ページをご覧ください。