ドキュメント
ローカルでLLMを実行する
コンピューターが最小システム要件を満たしていることを確認してください。
オープンソースモデル
やオープンウェイトモデル
という用語が表示されることがあります。モデルは、異なるライセンスやさまざまな程度の「オープンさ」でリリースされる場合があります。モデルをローカルで実行するには、その「重み」にアクセスできる必要があります。多くの場合、.gguf
、.safetensors
などで終わる1つ以上のファイルとして配布されます。
まず、最新バージョンのLM Studioをインストールしてください。こちらから入手できます。
セットアップが完了したら、最初のLLMをダウンロードする必要があります。
モデルをダウンロードするには、「Discover」タブに移動します。厳選されたオプションのいずれかを選択するか、検索クエリ(例:"Llama"
)でモデルを検索します。モデルのダウンロードに関する詳細については、こちらを参照してください。
LM Studioの「Discover」タブ
「Chat」タブに移動し、
macOSではcmd
+ L
、Windows/Linuxではctrl
+ L
でモデルローダーをすばやく開きます
モデルをロードするとは、通常、コンピューターのRAMにモデルの重みやその他のパラメータを格納できるようにメモリを割り当てることを意味します。
モデルがロードされたら、「Chat」タブでモデルとの会話を開始できます。
macOSでのLM Studio
LM Studio Discordサーバーで、他のLM Studioユーザーとチャットしたり、LLM、ハードウェアなどについて議論したりできます。