Jak uruchomić Qwen AI lokalnie w systemie Windows 11 i 10

Qwen AI, najnowszy model sztucznej inteligencji Alibaba Group, oferuje imponujące możliwości generowania tekstu, wyszukiwania informacji i zadań kreatywnych. Chociaż jest ona dostępna głównie jako aplikacja internetowa, możesz uruchomić Qwen AI lokalnie na komputerze z systemem Windows 11 lub 10. Zapewnia to dostęp w trybie offline, lepszą prywatność i potencjalnie lepszą wydajność. Przeanalizujmy proces konfigurowania Qwen AI na komputerze lokalnym.

Czego będziesz potrzebować

Zanim zagłębimy się w temat, upewnij się, że masz następujące elementy:

  • Komputer z systemem Windows 11 lub 10 z wystarczającą mocą obliczeniową i pamięcią masową.
  • Dostęp administracyjny do Twojego komputera.
  • Stabilne połączenie internetowe na potrzeby wstępnej konfiguracji.

Metoda 1: Używanie Ollama i Dockera

Ta metoda zapewnia bardziej niezawodną konfigurację z interfejsem użytkownika i możliwością zapisywania historii czatów.

Krok 1: Zainstaluj Ollamę

Krok 1:Odwiedź witrynę Ollama i pobierz instalator Windows.

Krok 2:Uruchom instalator i postępuj zgodnie z instrukcjami wyświetlanymi na ekranie, aby ukończyć instalację.

Krok 3:Po zainstalowaniu uruchom Ollamę i pozwól mu działać w tle.

Krok 2: Zainstaluj model Qwen AI

Krok 1:Otwórz przeglądarkę internetową i przejdź do witryny Ollama. Kliknij zakładkę „Modele”.

Krok 2:W pasku wyszukiwania wpisz „Qwen”, aby znaleźć dostępne modele Qwen AI.

Krok 3:Wybierz model Qwen, którego chcesz używać. W tym przewodniku użyjemy Qwen2.5. Kliknij na nią, żeby zobaczyć dostępne rozmiary parametrów.

Krok 4:Wybierz rozmiar parametru, który może obsłużyć Twój komputer. Mniejsze rozmiary (takie jak 0.5b) są szybsze, ale mniej zaawansowane, podczas gdy większe rozmiary oferują więcej możliwości, ale wymagają więcej zasobów.

Krok 5:Skopiuj polecenie instalacji dla wybranego modelu i rozmiaru parametrów. Na przykład, aby zainstalować Qwen2.5 z 0,5 miliarda parametrów, polecenie będzie wyglądać następująco:

ollama run qwen2.5:0.5b

Krok 6:Otwórz Wiersz Poleceń jako administrator, wklej skopiowane polecenie i naciśnij Enter. Rozpocznie się proces instalacji. Nie zamykaj wiersza poleceń, dopóki nie zostanie ukończony.

Krok 3: Zainstaluj Dockera

Krok 1:Odwiedź oficjalną stronę Dockera i pobierz Docker Desktop dla Windows.

Sugerowana lektura:Jak uruchomić bezpłatne narzędzia LLM lokalnie w systemie Windows 11

Krok 2:Zainstaluj Docker Desktop, postępując zgodnie z instrukcjami, aby w razie potrzeby utworzyć konto.

Krok 3:Po zainstalowaniu uruchom Docker Desktop i upewnij się, że działa w tle.

Krok 4: Skonfiguruj kontener Qwen AI

Krok 1:Otwórz Wiersz Poleceń jako administrator i uruchom następujące polecenie, aby utworzyć kontener Docker dla Qwen AI:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Krok 2:Poczekaj na zakończenie polecenia. Może to zająć kilka minut, w zależności od szybkości Internetu i wydajności komputera.

Krok 5: Uzyskaj lokalny dostęp do Qwen AI

Krok 1:Otwórz aplikację Docker Desktop i w sekcji „Kontenery” poszukaj nowo utworzonego kontenera.

Krok 2:Kliknij link „3000:8080” obok kontenera. Spowoduje to otwarcie domyślnej przeglądarki internetowejlocalhost:3000.

Krok 3:Utwórz konto, aby móc korzystać lokalnie z Qwen AI. Zapamiętaj te dane logowania, ponieważ będziesz ich potrzebować za każdym razem, gdy będziesz korzystać z wersji lokalnej.

Możesz teraz wchodzić w interakcję z Qwen AI za pośrednictwem lokalnego interfejsu internetowego. Pamiętaj, aby zarówno Ollama, jak i kontener Docker działały w tle, aby system działał.

Metoda 2: Użycie wiersza poleceń

Jeśli wolisz prostszą konfigurację lub nie potrzebujesz interfejsu graficznego, możesz używać Qwen AI bezpośrednio z wiersza poleceń.

Krok 1:Postępuj zgodnie z krokami instalacji Ollama i instalacji modelu Qwen AI z Metody 1.

Krok 2:Aby porozmawiać z Qwen AI, otwórz Wiersz Poleceń i uruchom to samo polecenie, którego użyłeś do zainstalowania modelu. Na przykład:

ollama run qwen2.5:0.5b

Krok 3:Możesz teraz wpisywać zapytania bezpośrednio w wierszu poleceń i otrzymywać odpowiedzi od Qwen AI.

Ta metoda jest szybsza w konfiguracji, ale nie zapisuje historii czatów ani nie zapewnia interfejsu graficznego.

Lokalne uruchomienie Qwen AI zapewnia większą kontrolę nad danymi i umożliwia dostęp offline do tego potężnego narzędzia AI. Chociaż wymaga wstępnej konfiguracji, korzyści związane z prywatnością i potencjalnie lepszą wydajnością sprawiają, że jest to opłacalna opcja dla wielu użytkowników. Pamiętaj, aby wybrać rozmiar modelu, który Twój komputer będzie w stanie wygodnie obsługiwać, aby zapewnić najlepsze wrażenia.

Related Posts