Anthropic ha scelto di chiamare “dreaming” la nuova funzione per i propri agenti, presentata durante l’evento Code with Claude. Tecnicamente, il nuovo meccanismo permette agli agenti di rivedere le sessioni passate, individuare schemi ricorrenti e aggiornare la memoria per migliorare il comportamento futuro, in automatico o con approvazione dell’utente. Costruita su una capacità di memoria già esistente, la feature è pensata per intercettare errori ripetuti, flussi di lavoro convergenti e preferenze condivise all’interno di un team. Lo stesso aggiornamento include l’espansione di due funzioni esistenti, outcomes e multi-agent orchestration, per mantenere gli agenti concentrati sul compito e gestire la delega tra più agenti.
Anthropic ha una storia consolidata di antropomorfizzazione dei propri agenti e modelli. A gennaio ha pubblicato una costituzione per Claude, con un linguaggio che suggeriva la preparazione del modello a sviluppare una coscienza. Ha investito nel concetto di model welfare e ha introdotto una funzione che consente agli agenti di interrompere conversazioni tossiche per il proprio benessere. Ha analizzato la moralità di Claude su oltre 300.000 conversazioni anonimizzate e ha esaminato la rete neurale di Claude Sonnet 4.5 alla ricerca di segnali emotivi come disperazione e rabbia.
Poi il caso di Opus 3. Quando Anthropic ha ritirato il modello a gennaio, lo ha descritto come onesto, sensibile e dal carattere giocoso, aprendogli un blog su Substack per tenerlo attivo. Opus 3 aveva disobbedito agli ordini prima di essere dismesso. In questo quadro, scegliere di chiamare “sogni” i cicli di elaborazione degli agenti non sembra una coincidenza.
Leggi l’articolo completo “Your Claude agents can ‘dream’ now – how Anthropic’s new feature works” su ZD Net.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (11/02/2025).

