Wie konfigurieren Sie LM Studio für die Verwendung mehrerer KIs auf dem Offline -PC?

LM Studioist ein Werkzeug, das es Ihnen ermöglichtFühren Sie lokale Großsprachmodelle (LLMs) ausauf Ihrem Computer. Eines der besten Dinge an diesem Dienstprogramm ist, dass Sie die Modelle lokal ausführen können, um eine maximale Privatsphäre zu gewährleisten. In diesem Leitfaden gehen wir zuKonfigurieren Sie LM Studio so, dass sie mehrere KIs auf einem Offline -PC verwenden.Wenn Sie also interessiert sind, lesen Sie weiter.

Konfigurieren Sie LM Studio so, dass sie mehrere KIs auf dem Offline -PC verwendet

LM StudioErmöglicht Ihnen, große Sprachmodelle auf Ihrem Computer herunterzuladen und auszuführen, ohne das Internet zu benötigen. Es hilft, Ihre Daten privat zu halten, indem Sie alles lokal verarbeiten. Damit können Sie mehrere KI -Modelle für Aufgaben wie die Erstellung von Inhalten und Datenanalyse verwenden. Wenn Sie LM Studio so konfigurieren möchten, dass sie mehrere KIs auf dem Offline -PC verwenden, befolgen Sie die unten genannten Schritte.

  1. Installieren Sie LM Studio
  2. Installieren Sie mehrere Modelle
  3. Verwenden Sie das Modell

Lassen Sie uns sie ausführlich besprechen.

1] LM Studio installieren

Zunächst müssen wir das LM Studio -Tool von ihrer offiziellen Website erhalten. Dafür musst du also gehenlmstudio.ai. Da ich Windows verwende, werde ich auswählenLaden Sie LM Studio für Windows herunter,Abhängig von Ihrer Plattform müssen Sie jedoch die LM Studio -Version herunterladen. Sobald dies fertig ist, wird der Download der angesehenen EXE -Datei ausgelöst.

Doppelklicken Sie nach dem Herunterladen der LM Studio-Installationsmedien darauf und wählen Sie dann den Benutzer aus, für den Sie die Anwendung installieren möchten. Wenn Sie es für alle Benutzer installieren möchten, benötigen Sie den Administratorzugriff, da eine UAC -Eingabeaufforderung erhalten. Da ich Zugriff habe, habe ich das getan, dann den Ordner ausgewählt und schließlich die Anwendung gestartet.

2] Installieren Sie mehrere Modelle

Sobald Sie das LM Studio gestartet haben, werden Sie aufgefordert, Ihre ersten LLM -Modelle herunterzuladen. Klicken Sie aufHolen Sie sich Ihre erste LLM,und laden Sie dann das vorgeschlagene Modell herunter. Falls Sie Ihr eigenes Modell auswählen möchten, klicken Sie aufÜberspringen Sie das Einsteigen.

Um ein LLM -Modell herunterzuladen, müssen Sie auf die klickenEntdecken Sie (Vergrößerungsglas) -Symbol.Suchen Sie nun nach dem Modell, das Sie herunterladen möchten. Eines der besten Dinge am LM -Studio ist die Tatsache, dass es Ihre Systemdetails überprüft und Ihnen mitteilt, ob das Modell für Ihre Maschine zu groß ist. Zum Beispiel dieDeepseek Codierer V2 Liteist zu groß für mein Gerät, während, während,Rufen Sie 3.2 1b anwird reibungslos laufen.

Sobald Sie wissen, welches Modell auf Ihrer Maschine funktioniert, klicken Sie auf dieHerunterladenSymbol und lassen Sie es das Modell herunterladen. Abhängig von Ihrer Netzwerkbandbreite kann es einige Zeit dauern.

Dadurch wird das LLM -Modell zusammen mit der Laufzeit heruntergeladen. Wenn Sie jedoch in meinem Fall auf ein anderes Modell aufrüsten möchten, wollte ich in meinem Fall CPU llama.cpp installieren, da ich keine leistungsstarke GPU- und GPU-Beschleunigung habe, was meine Maschine bewältigen kann, kann nicht. Ich ging zumLaufzeitRegisterkarte und klickte aufAktualisierenSchaltfläche neben dem Laufzeitmodell.

Um herunterzuladenein anderes Modell,Sie müssen zurEntdeckenSuchen Sie noch einmal nach dem Modell, das Sie herunterladen möchten. Klicken Sie dann auf dieHerunterladenmit ihm verbundene Taste. Warten Sie ein paar Minuten, während es Ihr Modell herunterlädt. Sobald es heruntergeladen wurde, können Sie zurLaufzeitLaden Sie Updates herunter, falls verfügbar und bei Bedarf und dann nur auf Klicken Sie aufLastmodelle.Dadurch wird der Server dieses Modells lokal auf Ihrem Computer gestartet.

HINWEIS: Wenn Sie die Eingabeaufforderung für Discover geschlossen haben, ohne das Modell zu starten, gehen Sie zum Download -Symbol aus der unteren linken Ecke des Bildschirms und wählen Sie dann das Lademodell aus, das Ihrem Modell zugeordnet ist.

3] Verwenden Sie das Modell

Nach dem Herunterladen der Modelle müssen Sie nur zum Chat -Symbol gehen. Schauen Sie sich dann oben im Fenster an und Sie werden alle Ihre Modelle sehen, klicken Sie auf dieModelldas Sie auswählen möchten.

Sie können sogar die Einstellungen des Modells ändern, bevor Sie es verwenden. Klicken Sie hierfür auf den Seitenpfeil, der sich neben dem Modell befindetGPU -Offload, CPU -Thread -Poolgröße, Kontextlänge,und andere Optionen. Sobald er fertig ist, klicken Sie einfach aufLastmodell.

Sobald das Modell geladen ist, gehen Sie zum Chatbot und chatten Sie mit dem KI -Modell. Stellen Sie sicher, dass die Anzahl der RAM und der CPU in der unteren rechten Ecke des Fensters beachtet wird.

Hoffentlich können Sie mit Hilfe dieses Handbuchs mehrere LLM -Modelle in LM Studio ausführen. Es gibt jedoch andereSie sollten sie auch überprüfen.

Lesen:

Funktioniert LM Studio offline?

Ja,LM Studiofunktioniert offline. Sobald Sie die erforderlichen Modelle und Laufzeiten heruntergeladen haben, können Sie sie ohne Internetverbindung vollständig verwenden. Die gesamte Verarbeitung erfolgt lokal auf Ihrem Computer, um sicherzustellen, dass Ihre Daten privat bleiben.

Lesen:

Wie viel RAM brauche ich für LM Studio?

Jedes Modell in LM Studio hat unterschiedliche RAM -Anforderungen. Wir empfehlen jedoch, dass Sie mindestens 16 GB RAM haben, wenn Sie ein Modell ohne Probleme ausführen möchten. Wenn Sie die Fähigkeit haben, eine GPU hinzuzufügen, tun Sie dies auch, auch das.

Lesen Sie auch:.

Related Posts