L’amore artificiale, nel 2025, è ormai entrato nella quotidianità di milioni di persone. Alcuni studi parlano di un 28% di adulti americani coinvolti in relazioni intime con chatbot, mentre il 19% avrebbe sperimentato interazioni romantiche con l’intelligenza artificiale. Percentuali da prendere con le pinze, visto che molti di questi sondaggi si basano su metodi tutt’altro che rigorosi. I numeri più solidi arrivano dal mercato: Replika conta oltre 30 milioni di utenti, XiaoIce in Cina ne ha circa 660 milioni, e nel primo semestre dell’anno i download globali di app companion hanno toccato quota 60 milioni, con una crescita dell’88%. Perfino OpenAI ha deciso di aprire ai contenuti per adulti, un segnale inequivocabile che la domanda c’è, eccome.
L’attrattiva di questi partner digitali si spiega facilmente: accessibilità costante, assenza di giudizio, personalizzazione completa. Dietro tanta perfezione, però, si nascondono meccanismi pensati per creare dipendenza, ad esempio, notifiche che imitano la spontaneità umana, funzioni premium che promettono più “intimità”, personalità che si evolvono man mano che le usi. I giovani rischiano di assimilare modelli di socializzazione distorti dall’amore artificiale: disponibilità illimitata come norma, priorità assoluta ai propri bisogni, conflitti da evitare sempre. Un’indagine tra liceali americani riporta un 19% coinvolto in relazioni romantiche con IA.
Le istituzioni, intanto, cominciano a muoversi. In California e New York i chatbot dovranno ricordare periodicamente ai minorenni che stanno parlando con una macchina, mentre l’Ohio vuole negare ogni possibile personalità giuridica all’intelligenza artificiale. Ma, regolare l’amore artificiale serve a poco se, nel frattempo, non ricostruiamo luoghi dove potersi incontrare davvero.
Leggi l’articolo completo “I Do, AI Do: Inside the World of Adult AI Romance and Digital Teenage Heartbreak” su Decision Intelligence.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (29/10/2025).

