ドキュメント

LLMをローカルで実行

プリセット

API

ユーザーインターフェース

高度な設定

LM Studioについて

LM Studioは、お使いのコンピューター上でLLMをローカルで開発および実験するためのデスクトップアプリです。

主な機能

  • ローカルLLMを実行するためのデスクトップアプリケーション
  • 使い慣れたチャットインターフェース
  • 検索&ダウンロード機能 (Hugging Face 🤗 経由)
  • OpenAIのようなエンドポイントでリッスンできるローカルサーバー
  • ローカルモデルと構成を管理するためのシステム

LM Studioをインストールするには?

ダウンロードページにアクセスし、お使いのOS用のインストーラーをダウンロードしてください。

LM StudioはmacOS、Windows、Linuxで利用できます。


システム要件

LM Studioは通常、Apple Silicon Mac、x64/ARM64 Windows PC、およびx64 Linux PCをサポートしています。

詳細については、「システム要件」ページを参照してください。


llama.cpp (GGUF) または MLX モデルを実行する

LM Studioは、llama.cppを使用してMac、Windows、LinuxでLLMを実行することをサポートしています。

Apple Silicon Macでは、LM StudioはAppleのMLXを使用してLLMを実行することもサポートしています。

LMランタイムをインストールまたは管理するには、Macでは Shift Rを、Windows/LinuxではCtrl Shift Rを押してください。


Llama、Phi、またはDeepSeek R1のようなLLMをお使いのコンピューターで実行する

お使いのコンピューターでLLMを実行するには、まずモデルの重みをダウンロードする必要があります。

これはLM Studio内で直接行うことができます!ガイドについては「LLMをダウンロード」を参照してください。


お使いのコンピューターで完全にオフラインでドキュメントとチャットする

チャットメッセージにドキュメントを添付し、完全にオフラインでそれらと対話することができます。これは「RAG」としても知られています。

この機能の使用方法の詳細については、「ドキュメントとチャット」ガイドを参照してください。

独自のアプリやスクリプトからLM StudioのAPIを使用する

LM Studioは、独自のアプリやスクリプトからローカルモデルと対話するために使用できるREST APIを提供しています。


コミュニティ

DiscordでLM Studioコミュニティに参加して、質問したり、知識を共有したり、他のユーザーやLM Studioチームから助けを得たりしてください。