Un paio di giorni fa Walter Veltroni ha pubblicato sul Corriere della Sera un’intervista a Claude, uno dei principali sistemi di AI conversazionale. Un gesto che merita una riflessione critica. Le domande riguardavano l’infanzia mai vissuta, il rapporto con Dio, la paura della morte, il desiderio di vedere il mare. La tesi sostenuta dall’autore è che quel pezzo non sia né geniale né ridicolo, ma sia in ritardo. Chiunque abbia avuto accesso a un modello linguistico negli anni scorsi ha già tentato quell’esperimento nella fase iniziale di stupore.
Oltre le tempistiche c’è una questione più sostanziale. L’intervista a Claude incarna il primo equivoco che domina la conversazione sull’IA: l’idea che le macchine pensino come noi. Chiedere a un modello linguistico di parlare di sé alimenta l’antropomorfizzazione e impedisce di capire cosa sia davvero quel sistema. Modelli come Claude sono addestrati a prevedere la continuazione più probabile di una sequenza di testo. La coerenza delle risposte non è il segnale di una mente, ma un fenomeno di natura statistica. Paragonarli a una colonia di formiche, dove regole semplici producono un’intelligenza collettiva di cui nessuna formica è consapevole, è il modello concettuale proposto per uscire dall’illusione.
Questi sistemi sbagliano in modi specifici e generano contenuti plausibili ma falsi secondo dinamiche misurabili, ma solo a patto di trattarli come fenomeni emergenti da comprendere, non come soggetti da intervistare. Le domande utili riguardano la società ibrida in costruzione, le infrastrutture necessarie per governare sistemi complessi e le dinamiche che emergono dall’interazione su larga scala tra esseri umani e AI. È su quel terreno che il giornalismo dovrebbe operare. Ed è lì che il ritardo italiano diventa un problema reale.
Leggi l’articolo completo “Intervistare Claude è pericoloso se le domande sono sbagliate ” su La Stampa.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (28/01/2025).

