• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

DeepSeek V4 Pro e Flash, architettura mixture-of-experts e costi ridotti

Fuga di dati DeepSeek: oltre un milione di informazioni esposte

Il laboratorio cinese DeepSeek ha rilasciato due versioni preview del suo nuovo modello linguistico DeepSeek V4, aggiornamento atteso di V3.2. Entrambe le varianti V4 Flash e V4 Pro adottano un’architettura mixture-of-experts con finestre di contesto da 1 milione di token. L’approccio riduce i costi di inferenza attivando solo alcuni parametri per compito.

Sul piano tecnico, V4 Pro è attualmente il modello open-weight più grande disponibile, con 1,6 trilioni di parametri totali (49 miliardi attivi), che superano Kimi K 2.6 di Moonshot AI (1,1 trilioni) e raddoppiano V3.2 (671 miliardi). V4 Flash, la variante compatta, conta 284 miliardi di parametri (13 miliardi attivi). Entrambi i modelli supportano solo testo.

Sui benchmark di ragionamento, il laboratorio dichiara prestazioni paragonabili a GPT-5.2 e Gemini 3.0 Pro su alcuni task, e performance “comparabili a GPT-5.4” nel coding. Rimangono però lacune nei test di conoscenza rispetto a GPT-5.4 e Gemini 3.1 Pro, con un ritardo stimato da DeepSeek stessa di 3-6 mesi rispetto ai modelli frontier. Il fattore distintivo rimane il costo; V4 Flash e V4 Pro risultano più economici di tutti i principali concorrenti, come Claude Haiku 4.5, GPT-5.5 e Claude Opus 4.7.

Leggi l’articolo completo: DeepSeek previews new AI model that ‘closes the gap’ with frontier models su TechCrunch

Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (05/02/2025).

Esplora altri articoli su questi temi