ドキュメント

LLM をローカルで実行する

プリセット

API

ユーザーインターフェース

高度な設定

オフライン操作

一般的に、LM Studio は動作にインターネットを必要としません。これには、モデルとのチャット、ドキュメントとのチャット、ローカルサーバーの実行といった主要機能が含まれ、これらはいずれもインターネットを必要としません。

接続を必要としない操作

ダウンロードした LLM の使用

LLM を一度お使いのマシンにダウンロードすれば、モデルはローカルで実行され、完全にオフラインで使用できます。LM Studio で LLM とチャットする際に入力した内容は、お客様のデバイスから外に出ることはありません。

ドキュメントとのチャット (RAG)

ドキュメントを LM Studio にドラッグ&ドロップしてチャットしたり RAG を実行したりする場合、そのドキュメントはお使いのマシンに留まります。すべてのドキュメント処理はローカルで行われ、LM Studio にアップロードした内容がアプリケーションから外に出ることはありません。

ローカルサーバーの実行

LM Studio は、localhost またはローカルネットワーク上で LLM 推論を提供するサーバーとして使用できます。LM Studio へのリクエストは OpenAI エンドポイントを使用し、OpenAI に似た応答オブジェクトを返しますが、すべてローカルに留まります。

接続を必要とする操作

以下に説明するいくつかの操作は、インターネット接続に依存します。一度 LLM をお使いのマシンにダウンロードすれば、完全にオフラインで作業できるようになります。

モデルの検索

Discover タブでモデルを検索すると、LM Studio はネットワークリクエスト(例: huggingface.co へのアクセス)を行います。インターネット接続がない場合、検索は機能しません。

新しいモデルのダウンロード

モデルをダウンロードするには、安定した(そして十分に高速な)インターネット接続が必要です。また、モデルを「サイドロード」することもできます(アプリ外で入手したモデルを使用すること)。モデルのサイドロードの手順を参照してください。

Discover タブのモデルカタログ

LM Studio の各バージョンには、初期モデルカタログが組み込まれています。カタログのエントリは通常、リリース時点でのオンラインカタログの状態を反映しています。ただし、各モデルの統計情報やダウンロードオプションを表示するには、ネットワークリクエスト(例: huggingface.co へのアクセス)を行う必要があります。

ランタイムのダウンロード

LM ランタイムは、特定の形式のモデル(例: llama.cpp)の実行を可能にする、個別にパッケージ化されたソフトウェアライブラリまたはLLMエンジンです。LM Studio 0.3.0 以降(発表を参照)は、LM Studio の完全なアップデートなしでランタイムを簡単にダウンロードし、ホットスワップすることもできます。利用可能なランタイムを確認し、ダウンロードするには、ネットワークリクエストを行う必要があります。

アプリケーションのアップデートを確認する

macOS および Windows では、LM Studio には組み込みのアプリケーションアップデーターが搭載されています。Linux のアプリ内アップデーターは現在開発中です。LM Studio を開くと、アプリアップデーターはネットワークリクエストを行い、新しいアップデートが利用可能かどうかを確認します。新しいバージョンがある場合、アプリは今すぐ更新するか後で更新するかの通知を表示します。インターネット接続がない場合、アプリ内アップデーターを介してアプリを更新することはできません。