OpenAI lancia GPT OSS con modelli 120B e 20B per l'intelligenza artificiale open source

OpenAI ha appena rilasciato qualcosa chiamato GPT OSSe, onestamente, questo cambia molto. Dopo aver trascorso anni su strumenti di intelligenza artificiale chiusi e bloccati, ora dicono: "Ehi, ecco qualcosa che potete usare tutti".

Non me lo aspettavo davvero, soprattutto quando GPT-5 è dietro l'angolo. Ma eccoci qui. Ci hanno dato due modelli,GPTOSS-120bEGPTOSS-20be sono totalmente a peso aperto e gratuiti da usare.

OpenAI elimina i modelli GPT OSS ed è una specie di grosso problema

Annuncio

Cos'è questa cosa del GPT OSS?

Fondamentalmente,GPT USAè il modo di OpenAI di tornare nel mondo open source. I modelli vengono rilasciati sottoLicenza Apache 2.0, il che significa niente drammi, niente regole strane.

Chiunque può usarlo, modificarlo o basarsi su di esso. Non importa se sei uno sviluppatore solista o una grande azienda. Questi modelli sono giustimodelli linguistici, A proposito. Nessuna immagine o audio. Solo puro testo.

Perché è importante

La vera ragione per cui questa è una grande mossa è che OpenAI sta chiaramente cercando di riconquistare la comunità degli sviluppatori. Ultimamente sono usciti molti modelli aperti e, se OpenAI rimane chiuso per sempre, rischiano di rimanere indietro in alcune aree.

IMPARENTATO:Mistral sfida OpenAI e Google con il nuovo modello di intelligenza artificiale vocale open source Voxtral

Annuncio

Quindi conGPT USA, stanno dimostrando di avere ancora a cuore la trasparenza e la condivisione. Inoltre, aiuta a superare tutte le pressioni da parte di governi e politici che continuano a chiedere uno sviluppo dell’IA più aperto e chiaro.

Come funziona

Quindi, dal punto di vista delle prestazioni, non è affatto male. Il modello più grande,GPTOSS-120b, funziona solo con una GPU Nvidia di fascia alta.

Quello più piccolo,20b, può letteralmente funzionare su aComputer portatile da 16 GB di RAM. È davvero pazzesco se ci pensi. Questa è la vera accessibilità.

Stanno usando qualcosa chiamatoMiscela di esperti (MoE)architettura. Non andremo troppo in profondità, ma per farla breve, il modello non utilizza tutti i suoi parametri ogni volta. Sceglie le parti di cui ha bisogno e funziona più velocemente e con più leggerezza.

Annuncio

Punti di forza e problemi

SuPunto di riferimento di Codeforces(che viene utilizzato per le abilità di codifica),GPTOSS-120bsegnato2622e la versione 20b ha segnato2516. Abbastanza solido, a dire il vero. Batte alcuni altri modelli come DeepSeek R1.

Ma sì, non è perfetto. ILtasso di allucinazioniè piuttosto brutto. Il modello grande fornisce informazioni errate comeIl 49% delle voltenelle prove fattuali.

Quello più piccolo fa peggio53%. È molto, ma è previsto poiché questi modelli sono più piccoli e non hanno una conoscenza approfondita del mondo come GPT-4.

Per mantenerlo semplice,GPT USAè il ritorno di OpenAI nello spazio aperto. Non è perfetto, ma è potente, veloce e più accessibile di quanto ti aspetteresti.

Se sei qualcuno che costruisce o testa materiale basato sull'intelligenza artificiale, questo è un buon momento per entrare. In fin dei conti, non si tratta di battere GPT-4, ma di dare alle persone un punto di partenza per costruire strumenti più intelligenti.

Related Posts