DeepSeek R1 ha segnato la strada, adesso tutti gli altri vogliono procedere a ruota. L’obiettivo? Aumentare le prestazioni dei modelli di intelligenza artificiale contenendo i costi, anzi, cercando di ridurli dove possibile. Un traguardo che si è posta Alibaba con QwQ-32B. Il team ha svelato il suo LLM open source con 32 miliardi di parametri, progettato per migliorare le prestazioni in attività di risoluzione di problemi complessi. Un modello che distingue per l’utilizzo dell’apprendimento per rinforzo (RL), tecnica che consente all’AI di imparare attraverso tentativi ed errori, ottimizzando le sue risposte nel tempo.

LICENZA OPEN

Disponibile su Hugging Face e ModelScope il vero punto di svolta è la licenza Apache 2.0, che permette a QwQ-32B di essere utilizzato liberamente per scopi commerciali e di ricerca. Dalla prima release di QwQ a fine novembre, il panorama dell’AI si è evoluto rapidamente. Di recente è cresciuto molto l’interesse per i large reasoning models (LRM), una nuova categoria di sistemi AI che utilizzano il ragionamento inferenziale e l’auto-riflessione per migliorare l’accuratezza. Tra questi rientrano la serie o3 di OpenAI e DeepSeek-R1.QwQ-32B rappresenta un’evoluzione del modello QwQ introdotto da Alibaba quasi cinque mesi fa. Questa nuova versione presenta diverse innovazioni, oltre ad una lunghezza del contesto estesa a 131.000 token, simili ai 128.000 dei modelli di OpenAI e di molti altri, ma decisamente inferiore ai 2 milioni di token di Gemini 2.0.