Siamo abituati a pensare all’intelligenza come a una gara: l’IA avanza, noi arretriamo. Ma questa metafora è sbagliata. L’intelligenza non è come l’altezza — non esiste un’unica scala su cui confrontarsi. Difatti, esistono molti modi di essere intelligenti, e gli esseri umani ne incarnano uno molto specifico, plasmato da vincoli biologici precisi: una vita breve, un cervello da un chilogrammo, una comunicazione affidata ai suoni della voce.
Proprio questi limiti, paradossalmente, ci rendono straordinari. Difatti, nessun sistema di IA sa produrre frasi creative come un bambino di cinque anni con la stessa quantità di dati: AlphaGo batte i campioni di go, ma ha bisogno di milioni di partite per farlo; ChatGPT conversa, ma attinge a migliaia di anni di linguaggio umano, mentre noi impariamo in modo molto più efficiente. I sistemi di IA, invece, risentono di vincoli diversi. Ad esempio, GPT-4 risponde meglio quando una sequenza contiene 30 lettere anziché 29, semplicemente perché il numero 30 appare più spesso nei testi di addestramento, mentre, in un test farmaceutico, alcuni modelli scelgono la concentrazione sbagliata perché confondono la somiglianza numerica con quella quantitativa.
Pertanto, umani e macchine non sono rivali sulla stessa pista, ma percorrono strade diverse e per via di ciò l’IA sarà migliore di noi in alcune cose, mentre sarà peggiore in altre. Dunque, al posto di temere il sorpasso, potremmo imparare a considerare questi nuovi sistemi non come concorrenti, ma come compagni — intelligenze diverse, con cui collaborare.
Leggi l’articolo completo Will human minds still be special in an age of AI? su The Guardian.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (03/05/2026).

