LM Studio 0.3.5
•
2024-10-22
LM Studio 0.3.5では、ヘッドレスモード、オンデマンドモデル読み込み、そしてPixtral(MistralAIのビジョン対応LLM)をサポートするためのmlx-engine
のアップデートが導入されました。
👾 ニューヨーク市で、オンデバイスAI向けのアプリとSDKを構築するTypeScript SDKエンジニアを募集中です。
.dmg
ファイルをこちらからダウンロードしてください。.exe
ファイルをこちらからダウンロードしてください。.AppImage
ファイルをこちらからダウンロードしてください。このリリースでは、LM StudioをバックグラウンドLLMプロバイダーとして使用することをより人間工学的にするための、開発者向けの機能をいくつか追加しました。ヘッドレスモード、オンデマンドモデル読み込み、サーバーの自動起動、そしてターミナルからモデルをダウンロードするための新しいCLIコマンドを実装しました。これらの機能は、ローカルWebアプリ、コードエディターまたはWebブラウザ拡張機能などを強化するのに役立ちます。
通常、LM Studioの機能を使用するには、アプリケーションを開いたままにする必要があります。LM Studioのグラフィカルユーザーインターフェースを考えると、これは当然のことです。しかし、特定の開発ワークフロー、主にLM Studioをサーバーとしてのみ使用するワークフローでは、アプリケーションを実行し続けると、ビデオメモリなどのリソースが不必要に消費されます。さらに、再起動後にアプリケーションを起動し、サーバーを手動で有効にする必要があることを覚えておくのは面倒です。もうそんな必要はありません!ヘッドレスモードの登場です👻。
ヘッドレスモード、または「ローカルLLMサービス」を使用すると、LM Studioのテクノロジー(補完、チャット補完、埋め込み、llama.cpp
またはApple MLX
を介した構造化出力)を、アプリを支えるローカルサーバーとして活用できます。
「ローカルLLMサービスを有効にする」をオンにすると、マシンの起動時にLM StudioのプロセスがGUIなしで実行されます。
マシンログイン時にLLMサーバーを起動するように設定する
バックグラウンドでLM Studioを使用するには、トレイに最小化します。これにより、ドックアイコンが非表示になり、グラフィカルユーザーインターフェースによって使用されているリソースが解放されます。
WindowsでLM Studioをバックグラウンドで実行するように設定する
macOSでLM Studioをバックグラウンドで実行するように設定する
サーバーをオンにすると、次回アプリケーションが起動したとき(ユーザーが起動した場合、またはサービスモードで起動した場合)に自動的に起動します。サーバーをオフにした場合も同じです。
サーバーがオンになっていることを確認するには、次のコマンドを実行します
逆に、サーバーがオフになっていることを確認するには、次を実行します
v0.3.5より前: LM Studioを介してモデルを使用するには、UIまたはlms load
(またはlmstudio-js)を介して、自分でモデルを読み込む必要がありました。
v0.3.5以降: モデルを使用するには、単に推論リクエストを送信します。モデルがまだ読み込まれていない場合は、リクエストが返される前に読み込まれます。つまり、最初のリクエストは読み込み操作が完了するまで数秒かかる場合がありますが、後続の呼び出しは通常どおり迅速に行われます。
オンデマンドモデル読み込みを使用する場合、コンテキストの長さ、GPUオフロード%、フラッシュアテンションなどの読み込み設定をどのように構成できるか疑問に思うかもしれません。これは、LM Studioのモデルごとのデフォルト設定機能を使用して解決できます。
モデルごとの設定を使用すると、特定のモデルを読み込むときにソフトウェアがデフォルトで使用する読み込みパラメーターを事前に決定できます。
GET /v1/models
の動作JIT読み込みなし (0.3.5より前のデフォルト): **すでにメモリに読み込まれている**モデルのみを返します
JIT読み込みあり: 読み込み可能なすべてのローカルモデルを返します
以前にLM Studioを使用したことがある場合は、[開発者]タブでこのスイッチを切り替えて、ジャストインタイムモデル読み込みを有効にします。新規インストールでは、デフォルトでオンになっています。
オンデマンドでモデルを読み込む
lms get
LM StudioのCLIであるlms
に、ターミナルから直接モデルをダウンロードできる新しいコマンドが追加されました。
lms
は、LM Studioの新しいバージョンをインストールすると自動的に更新されます。lms get {author}/{repo}
MetaのLlama 3.2 1Bをダウンロードするには、以下を実行します。
量子化を示すために、次の表記法を導入しています: @{quantization}
q4_k_m
量子化を取得する
q8_0
量子化を取得する
特定のモデルをダウンロードするために、明示的なHugging Face URLを提供します。
ここでも量子化の表記法が機能します!
これは、このモデルのq8_0
量子化をダウンロードします。
LM Studio 0.3.4では、Apple MLXのサポートを導入しました。詳細はこちらこちらをご覧ください。0.3.5では、基盤となるMLXエンジン(オープンソースです)を更新し、MistralAIのPixtralのサポートを追加しました!
これは、Blaizzy/mlx-vlm
バージョン0.0.15
を採用することで実現しました。
Pixtralは、モデル検索(⌘ + ⇧ + M
)またはlms get
を使用して、次のようにダウンロードできます。
お使いのMacに16GB以上のRAM(できれば32GB以上)があれば、ぜひ試してみてください。
lms load
、lms server start
は、GUIの起動を必要としなくなりましたlms
をPATHに追加するチェックボックス0.0.15
にバンプし、Qwen2VLをサポート4.45.0
に更新しました