LM Studioeste un instrument care vă permiteRulați modele locale de limbă mare (LLMS)pe computer. Unul dintre cele mai bune lucruri despre această utilitate este că vă permite să rulați modelele la nivel local pentru a asigura confidențialitatea maximă. În acest ghid, vom faceConfigurați LM Studio pentru a utiliza mai multe AI -uri pe un computer offline,Deci, dacă sunteți interesat, continuați să citiți.
Configurați LM Studio pentru a utiliza mai multe AI -uri pe PC -ul offline
LM StudioVă permite să descărcați și să rulați modele de limbaj mare pe computer, fără a avea nevoie de internet. Vă ajută să vă mențineți datele private prin procesarea totul la nivel local. Cu aceasta, puteți utiliza mai multe modele AI pentru sarcini precum crearea de conținut și analiza datelor. Dacă doriți să configurați LM Studio pentru a utiliza mai multe AI -uri pe computerul offline, urmați pașii menționați mai jos.
- Instalați LM Studio
- Instalați mai multe modele
- Începeți să utilizați modelul
Să le discutăm în detaliu.
1] Instalați LM Studio
În primul rând, trebuie să obținem instrumentul LM Studio de pe site -ul lor oficial. Deci, pentru asta, trebuie să plecilmstudio.ai. Din moment ce folosesc Windows, voi selectaDescărcați LM Studio pentru Windows,Dar, în funcție de platforma dvs., trebuie să descărcați versiunea LM Studio. Odată terminat, acest lucru va declanșa descărcarea fișierului EXE respectat.
După descărcarea suportului de instalare LM Studio, faceți dublu clic pe ea și apoi selectați utilizatorul pentru care doriți să instalați aplicația. Dacă doriți să îl instalați pentru toți utilizatorii, aveți nevoie de acces la administrator, deoarece va primi un prompt UAC. De când am acces, am făcut asta, am selectat apoi folderul și am lansat în cele din urmă aplicația.
2] Instalați mai multe modele
După ce lansați LM Studio, vi se va solicita să descărcați primele modele LLM, faceți clic peObțineți primul dvs. LLM,apoi descărcați modelul sugerat. În caz, doriți să selectați propriul model, faceți clic peSalt la îmbarcare.
Pentru a descărca orice model LLM, trebuie să faceți clic peDescoperiți pictograma (lupă).Acum, căutați modelul pe care doriți să îl descărcați. Unul dintre cele mai bune lucruri despre studioul LM este faptul că verifică detaliile sistemului dvs. și vă spun dacă modelul este prea mare pentru mașina dvs. De exemplu, TheDeepseek Coder V2 Liteeste prea mare pentru dispozitivul meu, în timp ce,Sunați la 3.2 1bva rula fără probleme.
După ce știți ce model va funcționa pe mașina dvs., faceți clic peDescărcarepictograma și lăsați -l să descarce modelul. În funcție de lățimea de bandă a rețelei dvs., poate dura ceva timp.
Acest lucru va descărca modelul LLM împreună cu runtime. Cu toate acestea, dacă doriți să faceți upgrade la un model diferit, în cazul meu, să zicem, am vrut să instalez CPU LLAMA.CPP, deoarece nu am un GPU puternic și GPU-Accelerare nu este ceva pe care mașina mea îl poate gestiona, M -am dus laTimp de rularefilă și a făcut clic peActualizareButon de lângă modelul Runtime.
Pentru a descărcaUn alt model,Trebuie să mergi laDescoperiButon din nou, căutați modelul pe care doriți să îl descărcați. Apoi, faceți clic peDescărcarebuton asociat cu acesta. Așteptați câteva minute, deoarece vă descarcă modelul. Odată descărcat, puteți merge laTimp de rulareDescărcați orice actualizări, dacă este disponibil și, dacă este necesar, și apoi, tot ce trebuie să faceți este să faceți clic peModele de încărcare.Acest lucru va porni serverul acelui model local pe computer.
Notă: Dacă ați închis promptul de descoperire fără a porni modelul, accesați pictograma de descărcare din colțul din stânga jos al ecranului, apoi selectați modelul de încărcare asociat cu modelul dvs.
3] Începeți să utilizați modelul
După descărcarea modelelor, tot ce trebuie să faceți este să mergeți la pictograma Chat. Apoi, priviți în partea de sus a ferestrei și veți vedea toate modelele dvs., faceți clic peModelpe care doriți să le selectați.
Puteți chiar schimba preferințele modelului înainte de a le utiliza. Pentru aceasta, faceți clic pe săgeata laterală care se află lângă model și apoi schimbați setările, cum ar fiDescărcare GPU, dimensiunea grupului de fir CPU, lungimea contextului,și alte opțiuni. Odată terminat, trebuie doar să faceți clic peModel de încărcare.
Odată ce modelul este încărcat, accesați chatbot și începeți să discutați cu modelul AI. Asigurați -vă că notați numărul RAM și CPU în colțul din dreapta jos al ferestrei.
Sperăm că, cu ajutorul acestui ghid, veți putea rula mai multe modele LLM în LM Studio. Cu toate acestea, există și alteleAr trebui să le verificați și ele.
Citire:
LM Studio funcționează offline?
Da,LM Studiofuncționează offline. După ce ați descărcat modelele și timpurile necesare, îl puteți utiliza în întregime fără o conexiune la internet. Toată procesarea se face local pe mașina dvs., asigurându -vă că datele dvs. rămân private.
Citire:
Cât de mult RAM am nevoie pentru LM Studio?
Fiecare model din LM Studio are cerințe RAM diferite. Cu toate acestea, vă recomandăm să aveți cel puțin 16 GB RAM dacă doriți să rulați vreun model fără probleme. În plus, dacă aveți capacitatea de a adăuga un GPU, faceți și asta.
Citiți și:.