QVQ-32B: Il modello LLM open source che sfida i giganti

Il mondo dell’intelligenza artificiale è in continua evoluzione e, sempre più spesso, l’attenzione si sposta sulla capacità di ottimizzare le prestazioni piuttosto che sulla semplice espansione delle dimensioni dei modelli. Il recente rilascio di QVQ-32B, un modello da 32 miliardi di parametri sviluppato da Qwen, la divisione AI di Alibaba, rappresenta un passo significativo in questa direzione. Un nuovo modello LLM cinese di piccole dimensioni che farà parlare di sé, perché ottiene prestazioni simili ai giganti del settore.

E' un modello open source ma si può usare anche online o tramite API

Un aspetto particolarmente rilevante di QVQ-32B è il suo carattere open source. Il modello è disponibile con licenza Apache 2.0 e può essere scaricato da piattaforme come Hugging Face e ModelScope. Inoltre, è accessibile tramite un’interfaccia web gratuita su chat.qwen.ai che consente a tutti gli utenti di testarlo direttamente senza necessità di risorse hardware avanzate. L'interfaccia di navigazione è molto simile a quella di un qualsiasi altro LLM.

l'interfaccia di Qwen Chat

Nell'interfaccia è presente anche una funzione Thinking, simile a quella di O1 di ChatGPT e DeepThink di DeepSeek, e una funzione di ricerca nel web, che permette al modello di accedere a informazioni aggiornate per migliorare le risposte. La funzione Thinking è molto utile perché consente al modello di riflettere in più passaggi prima di fornire una risposta, migliorando così la qualità e la coerenza delle informazioni generate.

Questo processo è simile a quello di O1, dove l'AI analizza il prompt, suddivide il ragionamento in fasi e ottimizza il risultato finale. In pratica, il modello non risponde immediatamente, ma "pensa" per alcuni istanti, riducendo errori e aumentando la precisione. È una capacità particolarmente utile per problemi complessi, come la programmazione e la matematica.

Per gli sviluppatori interessati a integrarlo nei propri sistemi, il modello è anche disponibile come API su Together AI, con un costo per token accessibile, forse una delle soluzioni più economiche attualmente sul mercato.

Il confronto tra QVQ-32B e DeepSeek

La principale innovazione di questo "piccolo" modello sta nella sua capacità di raggiungere e superare le prestazioni di DeepSeek R1, un altro modello cinese da 671 miliardi di parametri. Il modello QVQ-32B è oltre 20 volte più piccolo ma ottiene performance simili. In altre parole, è in grado di competere con uno dei più grandi sistemi AI attualmente disponibili che addirittura minaccia la leadership di ChatGPT nel settore degli LLM. Ancora una volta, le dimensioni di un LLM non sembrano contare. L'efficienza sta diventando sempre più importante rispetto alla semplice scala.

un confronto tra i parametri degli LLM cinesi principali

Vediamo più nel dettaglio come sono le prestazioni tramite un confronto diretto tra i due LLM made in China. Analizzando i dati di benchmark rilasciati dalla stessa Qwen, si nota come QVQ-32B sia in grado di eguagliare o superare DeepSeek R1 in diverse aree chiave. Ovviamente sono benchmark che potrebbero essere smentiti da altri test successivi ma la promessa resta comunque importante e la sfida tra i due LLM cinesi è appena cominciata.

Benchmark QVQ-32B DeepSeek R1
MATH (problemi matematici) 79.1 79.5
LiveCodeBench (coding) 63 65
GSM8K (ragionamento matematico) 73.1 71.6
IFEval (seguire istruzioni) 83.9 83.3
BFCL (Function Calling) 66.4 60.3

Uno degli aspetti più interessanti riguarda il function calling, eseguendo funzioni specifiche su richiesta, ovvero la capacità del modello di interagire con API e strumenti esterni. Questo permette, ad esempio, di recuperare dati in tempo reale, eseguire calcoli avanzati o controllare dispositivi. È una funzione essenziale per integrare l’AI in applicazioni pratiche. In questo test, QVQ-32B ottiene un punteggio significativamente superiore rispetto a DeepSeek R1, evidenziando una maggiore efficacia nell’integrazione con sistemi software e nell’esecuzione di task complessi.

Come può un modello più piccolo ottenere le stesse performance di altri LLM più grandi?

Questo risultato è reso possibile dall’impiego avanzato del Reinforcement Learning applicato a un modello pre-addestrato, migliorando così l’efficienza e la qualità delle risposte senza aumentare le dimensioni del sistema. Il motivo per cui QVQ-32B riesce a ottenere questi risultati con un numero così ridotto di parametri risiede nella strategia di addestramento adottata. Il modello è stato ottimizzato attraverso un processo in tre fasi principali:

  1. Pretraining su una vasta quantità di dati per acquisire una conoscenza di base solida.
  2. Addestramento tramite Reinforcement Learning su matematica e coding per migliorare la capacità di ragionamento e risoluzione di problemi.
  3. Ottimizzazione sulle conoscenze generali con un sistema basato su regole (Rule-Based System) che seleziona i percorsi di ragionamento più efficaci.

Questa metodologia non solo migliora la qualità delle risposte del modello, ma potenzia anche alcune sue capacità emergenti, come il seguire istruzioni complesse (instruction following) e l’allineamento con le preferenze umane (instruction alignment).

La sfida tra Usa e Cina sugli LLM

In conclusione, QVQ-32B rappresenta un chiaro esempio di come l’ottimizzazione dei modelli AI stia diventando più importante della semplice espansione delle dimensioni. Grazie a un addestramento mirato e a tecniche avanzate di Reinforcement Learning, questo modello da 32 miliardi di parametri riesce a raggiungere e superare le prestazioni di modelli molto più grandi, mantenendo al tempo stesso un’elevata efficienza.

Essendo open source, gratuito e accessibile, QVQ-32B si pone come un’alternativa estremamente competitiva nel panorama attuale dell’intelligenza artificiale, offrendo prestazioni elevate a un costo contenuto. La sua capacità di eseguire function calling, di seguire istruzioni con precisione e di interfacciarsi con sistemi esterni lo rende particolarmente interessante per applicazioni reali.

Visto il rapido e crescente avanzamento della ricerca nel settore AI, in particolar modo degli LLM, sarà interessante osservare la risposta di altre aziende, come OpenAI, Anthropic e Google, che potrebbero essere spinte a sviluppare nuovi modelli o a ridurre i costi per rimanere competitive. Per ora, QVQ-32B è un'ulteriore conferma che la Cina si candida a competere seriamente con gli USA nel settore degli LLM e dimostra che l’ottimizzazione intelligente può essere più efficace della pura potenza computazionale.

Andrea Minini

 
 

Segnalami un errore, un refuso o un suggerimento per migliorare gli appunti

FacebookTwitterLinkedinLinkedin