オフライン PC で複数の AI を使用するように LM Studio を設定するにはどうすればよいですか?

LMスタジオを可能にするツールですローカルの大規模言語モデル (LLM) を実行するあなたのコンピュータ上で。このユーティリティの最も優れた点の 1 つは、モデルをローカルで実行して最大限のプライバシーを確​​保できることです。このガイドでは、次のことを行います。オフライン PC 上で複数の AI を使用するように LM Studio を構成します。興味があれば読み続けてください。

LMスタジオを使用すると、インターネットを必要とせずに、大規模な言語モデルをコンピュータにダウンロードして実行できます。すべてをローカルで処理することで、データのプライバシーを保つことができます。これを使用すると、コンテンツ作成やデータ分析などのタスクに複数の AI モデルを使用できます。オフライン PC 上で複数の AI を使用するように LM Studio を設定する場合は、以下の手順に従ってください。

  1. LMスタジオをインストールする
  2. 複数のモデルをインストールする
  3. モデルの使用を開始する

それらについて詳しく説明しましょう。

1] LM Studioをインストールする

まず、公式 Web サイトから LM Studio ツールを入手する必要があります。そのためには、行く必要がありますlmstudio.ai。私はWindowsを使用しているので、選択しますWindows 用 LM Studio をダウンロードし、ただし、プラットフォームによっては、LM Studio バージョンをダウンロードする必要があります。完了すると、適切な exe ファイルのダウンロードがトリガーされます。

LM Studio インストール メディアをダウンロードした後、それをダブルクリックし、アプリケーションをインストールするユーザーを選択します。すべてのユーザーにインストールする場合は、UAC プロンプトが表示されるため、管理者アクセスが必要です。アクセス権があるので、それを実行し、フォルダーを選択して、最後にアプリケーションを起動しました。

2] 複数のモデルをインストールする

LM Studio を起動すると、最初の LLM モデルをダウンロードするように求められます。最初の LLM を取得して、提案されたモデルをダウンロードします。独自のモデルを選択したい場合は、 をクリックしてください。搭乗をスキップします。

LLM モデルをダウンロードするには、発見 (虫眼鏡) アイコン。次に、ダウンロードしたいモデルを検索します。 LM Studio の最も優れた点の 1 つは、システムの詳細をチェックして、モデルがマシンに対して大きすぎるかどうかを通知してくれるという事実です。たとえば、DeepSeek コーダー V2 Lite私のデバイスには大きすぎますが、炎 3.2 1Bスムーズに実行されます。

お使いのマシンでどのモデルが動作するかがわかったら、ダウンロードアイコンをクリックしてモデルをダウンロードさせます。ネットワーク帯域幅によっては、時間がかかる場合があります。

これにより、ランタイムとともに LLM モデルがダウンロードされます。ただし、別のモデルにアップグレードしたい場合は、私の場合、強力な GPU がなく、GPU アクセラレーションが私のマシンで処理できるものではないため、CPU llama.cpp をインストールしたかったとします。ランタイムタブをクリックして、アップデートランタイムモデルの横にあるボタンをクリックします。

ダウンロードするには別のモデル、に行く必要があります発見するもう一度ボタンを押して、ダウンロードするモデルを探します。次に、ダウンロードそれに関連付けられたボタン。モデルがダウンロードされるので、数分間待ちます。ダウンロードしたら、次の場所に移動できます。ランタイムアップデートがあればダウンロードし、必要に応じて、クリックするだけです。モデルをロードします。これにより、そのモデルのサーバーがコンピュータ上でローカルに起動されます。

注: モデルを開始せずに Discover プロンプトを閉じた場合は、画面の左下隅にある [ダウンロード] アイコンに移動し、モデルに関連付けられた [モデルのロード] を選択します。

3]モデルの使用を開始します

モデルをダウンロードしたら、[チャット] アイコンに移動するだけです。次に、ウィンドウの上部を見ると、すべてのモデルが表示されます。モデル選択したいものを選択します。

モデルを使用する前に、モデルの設定を変更することもできます。そのためには、モデルの横にある横矢印をクリックして、次のような設定を変更します。GPU オフロード、CPU スレッド プール サイズ、コンテキスト長、およびその他のオプション。完了したら、クリックするだけですモデルをロードします。

モデルがロードされたら、チャットボットに移動し、AI モデルとのチャットを開始します。ウィンドウの右下隅にある RAM と CPU の数に注意してください。

このガイドの助けを借りて、LM Studio で複数の LLM モデルを実行できるようになれば幸いです。ただし、他にもありますそちらもチェックしてみてください。

読む:

LM Studio はオフラインでも動作しますか?

はい、LMスタジオオフラインでも動作します。必要なモデルとランタイムをダウンロードしたら、インターネット接続なしで完全に使用できます。すべての処理はマシン上でローカルに行われるため、データのプライバシーは確保されます。

読む:

LM Studio にはどれくらいの RAM が必要ですか?

LM Studio の各モデルには異なる RAM 要件があります。ただし、どのモデルでも問題なく実行したい場合は、少なくとも 16 GB の RAM を搭載することをお勧めします。さらに、GPU を追加する能力がある場合は、それも行ってください。

こちらもお読みください:

Related Posts