
実行
対応アーキテクチャ
をあなたのコンピューターで
LM Studio は以下の
利用規約LM Studioを使うと…
🤖 • ラップトップでLLMを完全にオフラインで実行できます
📚 • ローカルドキュメントとチャットできます(0.3の新機能)
👾 • アプリ内チャットUIまたはOpenAI互換のローカルサーバーを介してモデルを使用できます
📂 • Hugging Face 🤗リポジトリから互換性のあるモデルファイルをダウンロードできます
🔭 • アプリの[発見]ページで、注目すべき新しいLLMを発見できます
LM Studioは、Hugging FaceのGGUF Llama、Mistral、Phi、Gemma、StarCoderなどのモデルをサポートしています
最小要件:M1/M2/M3/M4 Mac、またはAVX2をサポートするプロセッサを搭載したWindows / Linux PC。
のおかげで実現しました llama.cpp プロジェクト。
私たちはチームを拡大しています。私たちの 採用情報ページ.
技術ドキュメントを参照してください https://lmstudio.dokyumento.jp/docs.
要約: アプリはデータを収集したり、あなたの行動を監視したりしません。あなたのデータはあなたのマシンにローカルに保存されます。個人使用は無料です。ビジネスでの使用については、お問い合わせください。
LM Studioはデータを収集しますか?
いいえ。ローカルLLMを使用する主な理由の1つはプライバシーであり、LM Studioはそれを念頭に置いて設計されています。あなたのデータはあなたのマシンにプライベートでローカルに保存されます。
詳細については、ドキュメント > オフライン操作を参照してください。
職場でLM Studioを使用できますか?
ぜひご利用ください。LM Studio @ Workリクエストフォームにご記入ください。できるだけ早くご連絡いたします。
ハードウェア/ソフトウェアの最小要件は何ですか?
最新情報については、システム要件ページをご覧ください。
採用していますか?
募集中のポジションについては、採用情報ページをご覧ください。