Meta ha rimosso o limitato decine di account di organizzazioni che operano nell’ambito della salute riproduttiva e dei diritti LGBTQ+ negli ultimi mesi. Secondo Repro Uncensored, che riporta 210 incidenti documentati nel 2025 contro gli 81 del 2024, si tratta di una delle più ampie ondate di censura degli ultimi anni. Tra gli account colpiti figurano hotline per l’aborto in paesi dove è legale, gruppi queer europei e organizzazioni che forniscono informazioni sanitarie a milioni di persone in Asia, America Latina e Medio Oriente.
Il caso offre uno spaccato significativo sull’opacità dei sistemi di moderazione automatica. Le organizzazioni colpite ricevono spiegazioni vaghe che dichiarano che gli account “non rispettano gli standard della community” senza però fornire indicazioni precise sui contenuti problematici. Nonostante Meta neghi cambiamenti nelle sue politiche, i dati suggeriscono un inasprimento delle restrizioni. Il processo di appello risulta inoltre lento e inefficace; molti account vengono ripristinati solo in seguito alla pressione pubblica, evidenziando l’assenza di trasparenza nei meccanismi decisionali algoritmici.
La vicenda mette dunque in luce la centralità della trasparenza e responsabilità nei sistemi automatizzati. Quando gli algoritmi operano su scala globale senza un’adeguata supervisione contestuale, i loro effetti possono risultare discriminatori e dannosi, indirizzando gli utenti verso fonti meno affidabili. La questione va ben oltre l’aspetto tecnico e strutturale, andando a investire i principi e i termini di controllo che governano lo spazio pubblico digitale.

