Dati sotto controllo e intelligenza artificiale su misura: con i nuovi modelli open-weight GPT-OSS 20B e 120B, le imprese possono sperimentare ed innovare rimanendo on-premise.

OpenAI ha sorpreso ancora con l’annuncio di due nuovi modelli linguistici open-weight: GPT-OSS 20B e GPT-OSS 120B. È un ritorno alla filosofia dell’apertura, dopo anni in cui i grandi modelli erano disponibili solo tramite servizi chiusi e API a pagamento. Si tratta di un passo importante per chi lavora con l’intelligenza artificiale: ora si possono scaricare i pesi dei modelli, studiarli, adattarli e persino usarli in contesti aziendali, senza dipendere da un fornitore esterno.
Il termine “open-weight” significa proprio questo: OpenAI ha reso pubblici i parametri che costituiscono il cuore del modello. In pratica, il “cervello” che permette di generare testo è disponibile in formato leggibile dalle macchine. Non è un dettaglio: poter accedere direttamente a questa parte rende possibili esperimenti, studi accademici, e applicazioni personalizzate che con i modelli chiusi sarebbero impensabili. La licenza Apache 2.0 scelta per la distribuzione garantisce ampia libertà, compreso l’uso commerciale.
Ma che differenza c’è tra i due modelli presentati? GPT-OSS 20B, come suggerisce il nome, ha circa 20 miliardi di parametri. È pensato per chi vuole sperimentare senza investire in infrastrutture enormi: con una buona scheda grafica consumer, già si può lavorare. È il modello adatto a chi desidera prototipare chatbot, assistenti interni, strumenti di analisi di testo, mantenendo i dati in casa propria. GPT-OSS 120B è invece molto più ambizioso: con i suoi oltre cento miliardi di parametri, attivati in maniera selettiva grazie a un’architettura di tipo Mixture of Experts, si avvicina alle prestazioni dei modelli “mini-GPT-4” e offre maggiore capacità di ragionamento e gestione di testi complessi. Naturalmente, questo richiede hardware di fascia alta, tipicamente GPU da data center con almeno 80 gigabyte di memoria.
La novità non sta solo nella potenza bruta, ma anche nel modo in cui i modelli sono stati progettati. Non cercano soltanto di “completare frasi”, ma sono ottimizzati per seguire catene di pensiero, ragionare passo passo e interagire con strumenti esterni. Questo li rende particolarmente adatti ad applicazioni reali, come il supporto clienti, la redazione di documenti, la generazione di codice o la ricerca assistita.
Naturalmente non sono la soluzione a tutto. Non gestiscono immagini o video, non sostituiscono esperti umani in ambiti delicati come medicina o diritto, e non sono privi di errori. Inoltre, i requisiti hardware del 120B restano alti, e il 20B, pur più accessibile, non può raggiungere la qualità dei modelli più grandi.
Un altro aspetto interessante è il confronto con la scena open-source più ampia. Negli ultimi mesi sono emersi modelli come DeepSeek, sviluppato in Cina, e Qwen, promosso da Alibaba. Anche questi usano architetture simili, spesso basate su MoE, e puntano molto sull’efficienza. DeepSeek, ad esempio, ha dimostrato che è possibile addestrare modelli competitivi con costi relativamente ridotti, ottenendo buoni risultati nei benchmark di ragionamento e codice. Qwen, invece, offre versioni multilingue e con contesti estesi, utili per chi lavora con testi lunghi o in più lingue contemporaneamente.
Rispetto a questi concorrenti, GPT-OSS ha dalla sua la forza del marchio OpenAI e una grande trasparenza: i pesi sono stati rilasciati in formati già pronti per l’uso, con documentazione chiara e un approccio che facilita sia la ricerca che l’adozione industriale. Per chi vuole sperimentare localmente, il 20B resta una scelta ottimale. Per chi ha risorse e mira a progetti più seri, il 120B può essere la base di un’infrastruttura AI interna.
Il rilascio di questi modelli ha quindi un duplice significato. Da un lato, segna la volontà di OpenAI di partecipare al dibattito scientifico e di sostenere la comunità open-source. Dall’altro, apre possibilità concrete a imprese e istituzioni che desiderano autonomia e controllo, magari per motivi di sicurezza o conformità normativa.
Non sappiamo ancora se i modelli open-weight diventeranno la norma, ma è chiaro che con GPT-OSS 20B e 120B si è aperto un nuovo capitolo. L’intelligenza artificiale, per una volta, non è solo nei data center dei giganti ICT: può entrare anche nei laboratori, nelle università, e persino nelle aziende più piccole che hanno voglia di sperimentare e rimanere in locale.
