ドキュメント

オフライン操作

LM Studioは完全にオフラインで動作します。まずはモデルファイルをいくつか入手してください。

一般的に、LM Studioは動作するためにインターネットを必要としません。これには、モデルとのチャット、ドキュメントとのチャット、ローカルサーバーの実行などのコア機能が含まれますが、これらはすべてインターネットを必要としません。

接続を必要としない操作

ダウンロードしたLLMの使用

LLMをマシンにダウンロードしたら、モデルはローカルで実行され、完全にオフラインで利用できるようになります。LLMとのチャットでLM Studioに入力した内容は、デバイスから離れることはありません。

ドキュメントとのチャット (RAG)

LM StudioにドキュメントをドラッグアンドドロップしてチャットしたりRAGを実行したりする場合、そのドキュメントはマシン上に留まります。すべてのドキュメント処理はローカルで行われ、LM Studioにアップロードしたものはアプリケーションから離れることはありません。

ローカルサーバーの実行

LM Studioは、localhostまたはローカルネットワーク上でLLM推論を提供するサーバーとして使用できます。LM StudioへのリクエストはOpenAIエンドポイントを使用し、OpenAIライクなレスポンスオブジェクトを返しますが、ローカルに留まります。

接続を必要とする操作

以下に説明するいくつかの操作は、インターネット接続に依存します。LLMをマシンにダウンロードすれば、完全にオフラインで利用できるようになります。

モデルの検索

「Discover」タブでモデルを検索する際、LM Studioはネットワークリクエスト(例:huggingface.coへのリクエスト)を行います。インターネット接続がない場合、検索は機能しません。

新しいモデルのダウンロード

モデルをダウンロードするには、安定した(そして比較的速い)インターネット接続が必要です。モデルを「サイドロード」(アプリ外で調達したモデルを使用)することもできます。モデルのサイドロードの手順については、こちらを参照してください。

Discoverタブのモデルカタログ

LM Studioの各バージョンには、初期のモデルカタログが組み込まれています。カタログのエントリは、通常、リリース時点でのオンラインカタログの状態です。ただし、各モデルの統計情報やダウンロードオプションを表示するには、ネットワークリクエスト(例:huggingface.coへのリクエスト)を行う必要があります。

ランタイムのダウンロード

LM Runtimesは、個別にパッケージ化されたソフトウェアライブラリまたはLLMエンジンであり、特定のフォーマットのモデル(例:llama.cpp)を実行できます。LM Studio 0.3.0以降(アナウンスをお読みください)、完全なLM Studioのアップデートなしでランタイムを簡単にダウンロードしたり、ホットスワップしたりできます。利用可能なランタイムを確認し、ダウンロードするには、ネットワークリクエストを行う必要があります。

アプリのアップデートチェック

macOSとWindowsでは、LM Studioには組み込みのアプリアップデーターが搭載されており、高性能です。Linuxのアプリ内アップデーターは開発中です。LM Studioを開くと、アプリアップデーターはネットワークリクエストを行って、新しいアップデートが利用可能かどうかを確認します。新しいバージョンがある場合、アプリは今すぐアップデートするか、後でアップデートするかを通知します。インターネット接続がない場合、アプリ内アップデーター経由でアプリをアップデートすることはできません。

このページのソースはGitHubで入手できます。