Meta ha annunciato che riprenderà ad allenare i suoi modelli di intelligenza artificiale utilizzando i dati pubblici degli utenti europei adulti su Facebook, Instagram e Threads. I contenuti privati, dei profili chiusi e dei minorenni non verranno usati. Solo le conversazioni su Facebook, Messenger e Instagram saranno considerate, mentre quelle su WhatsApp restano escluse per ora. Gli utenti riceveranno una notifica e potranno opporsi tramite una semplice procedura online.
Questa decisione arriva dopo uno stop del garante irlandese, che aveva bloccato il lancio europeo di Meta AI. Ora, con un nuovo modulo di opposizione e l’ok parziale del Comitato europeo per la protezione dei dati, Meta cerca di recuperare terreno rispetto ai concorrenti. Tuttavia, manca ancora una lista pubblica dei dati usati per allenare i modelli, e l’accesso a queste informazioni rimane nelle mani delle aziende che li sviluppano.
Oltre Meta, anche gli altri giganti tecnologici, come Google, OpenAI e xAI di Elon Musk, affrontano situazioni simili, con poca trasparenza e normative ancora in fase di sviluppo. L’Europa tenta di proteggere i diritti degli utenti, ma l’equilibrio tra innovazione e tutela è fragile. In questo scenario, resta una domanda: quanto controllo siamo disposti a cedere per partecipare all’evoluzione dell’intelligenza artificiale?
Leggi l’articolo completo “Noi e l’AI: cosa cambia su Facebook, Instagram e Whatsapp, cosa fanno gli altri (e una certezza granitica)” sul Corriere della Sera.
Immagine generata tramite DALL-E 3. Tutti i diritti sono riservati. Università di Torino (2025).

