ドキュメント
インテグレーション
Model Context Protocol (MCP)
モデル (model.yaml)
API
インテグレーション
Model Context Protocol (MCP)
モデル (model.yaml)
API
オフライン操作
LM Studioは完全にオフラインで動作します。まずはモデルファイルをいくつか入手してください。
一般的に、LM Studioは動作するためにインターネットを必要としません。これには、モデルとのチャット、ドキュメントとのチャット、ローカルサーバーの実行などのコア機能が含まれますが、これらはすべてインターネットを必要としません。
LLMをマシンにダウンロードしたら、モデルはローカルで実行され、完全にオフラインで利用できるようになります。LLMとのチャットでLM Studioに入力した内容は、デバイスから離れることはありません。
LM StudioにドキュメントをドラッグアンドドロップしてチャットしたりRAGを実行したりする場合、そのドキュメントはマシン上に留まります。すべてのドキュメント処理はローカルで行われ、LM Studioにアップロードしたものはアプリケーションから離れることはありません。
LM Studioは、localhostまたはローカルネットワーク上でLLM推論を提供するサーバーとして使用できます。LM StudioへのリクエストはOpenAIエンドポイントを使用し、OpenAIライクなレスポンスオブジェクトを返しますが、ローカルに留まります。
以下に説明するいくつかの操作は、インターネット接続に依存します。LLMをマシンにダウンロードすれば、完全にオフラインで利用できるようになります。
「Discover」タブでモデルを検索する際、LM Studioはネットワークリクエスト(例:huggingface.coへのリクエスト)を行います。インターネット接続がない場合、検索は機能しません。
モデルをダウンロードするには、安定した(そして比較的速い)インターネット接続が必要です。モデルを「サイドロード」(アプリ外で調達したモデルを使用)することもできます。モデルのサイドロードの手順については、こちらを参照してください。
LM Studioの各バージョンには、初期のモデルカタログが組み込まれています。カタログのエントリは、通常、リリース時点でのオンラインカタログの状態です。ただし、各モデルの統計情報やダウンロードオプションを表示するには、ネットワークリクエスト(例:huggingface.coへのリクエスト)を行う必要があります。
LM Runtimesは、個別にパッケージ化されたソフトウェアライブラリまたはLLMエンジンであり、特定のフォーマットのモデル(例:llama.cpp)を実行できます。LM Studio 0.3.0以降(アナウンスをお読みください)、完全なLM Studioのアップデートなしでランタイムを簡単にダウンロードしたり、ホットスワップしたりできます。利用可能なランタイムを確認し、ダウンロードするには、ネットワークリクエストを行う必要があります。
macOSとWindowsでは、LM Studioには組み込みのアプリアップデーターが搭載されており、高性能です。Linuxのアプリ内アップデーターは開発中です。LM Studioを開くと、アプリアップデーターはネットワークリクエストを行って、新しいアップデートが利用可能かどうかを確認します。新しいバージョンがある場合、アプリは今すぐアップデートするか、後でアップデートするかを通知します。インターネット接続がない場合、アプリ内アップデーター経由でアプリをアップデートすることはできません。
このページのソースはGitHubで入手できます。
このページについて
接続を必要としない操作
- ダウンロードしたLLMの使用
- ドキュメントとのチャット (RAG)
- ローカルサーバーの実行
接続を必要とする操作
- モデルの検索
- 新しいモデルのダウンロード
- Discoverタブのモデルカタログ
- ランタイムのダウンロード
- アプリのアップデートチェック