Il laboratorio cinese DeepSeek ha rilasciato due versioni preview del suo nuovo modello linguistico DeepSeek V4, aggiornamento atteso di V3.2. Entrambe le varianti V4 Flash e V4 Pro adottano un’architettura mixture-of-experts con finestre di contesto da 1 milione di token. L’approccio riduce i costi di inferenza attivando solo alcuni parametri per compito.
Sul piano tecnico, V4 Pro è attualmente il modello open-weight più grande disponibile, con 1,6 trilioni di parametri totali (49 miliardi attivi), che superano Kimi K 2.6 di Moonshot AI (1,1 trilioni) e raddoppiano V3.2 (671 miliardi). V4 Flash, la variante compatta, conta 284 miliardi di parametri (13 miliardi attivi). Entrambi i modelli supportano solo testo.
Sui benchmark di ragionamento, il laboratorio dichiara prestazioni paragonabili a GPT-5.2 e Gemini 3.0 Pro su alcuni task, e performance “comparabili a GPT-5.4” nel coding. Rimangono però lacune nei test di conoscenza rispetto a GPT-5.4 e Gemini 3.1 Pro, con un ritardo stimato da DeepSeek stessa di 3-6 mesi rispetto ai modelli frontier. Il fattore distintivo rimane il costo; V4 Flash e V4 Pro risultano più economici di tutti i principali concorrenti, come Claude Haiku 4.5, GPT-5.5 e Claude Opus 4.7.
Leggi l’articolo completo: DeepSeek previews new AI model that ‘closes the gap’ with frontier models su TechCrunch
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (05/02/2025).

