Come la curatela narrativa è diventata invisibile (e perché dovrebbe spaventarci)
Nel primo articolo abbiamo visto come i Grimm, Perrault e Andersen curassero le fiabe secondo agende precise: nazionalismo tedesco, sensibilità aristocratica francese, elaborazione del trauma personale. Ogni versione era il risultato di scelte ideologiche consapevoli. Ma c’era una costante: il curatore aveva un nome. Sapevi di star leggendo Wilhelm Grimm che riscriveva Raperonzolo. Potevi essere d’accordo o no, ma la curatela era visibile.
Oggi no. Oggi hai algoritmi che decidono quali storie vedi su TikTok, content moderator che cancellano post su Instagram, feed personalizzati che ti mostrano una realtà cucita addosso ai tuoi bias. E tutto questo si presenta come neutrale, come “la piattaforma”, come “i contenuti”. Nessun nome, nessun volto, nessuna agenda dichiarata. È Wilhelm Grimm che riscrive le fiabe senza firmare le edizioni — e senza dirti nemmeno che le sta riscrivendo.
La differenza non è solo estetica. È strutturale. E vale la pena capire come funziona questa curatela invisibile, chi la esercita davvero, e perché la sua opacità è un problema politico molto più serio di quanto sembri.
La meccanica dell’invisibilità: come funziona la moderazione automatizzata
Quando posti una foto su Instagram, quella foto attraversa una serie di filtri automatici prima che qualcuno la veda. Il processo è così veloce che ti sembra istantaneo, ma dietro c’è un’infrastruttura complessa[1].
Prima di tutto, la piattaforma comprime il tuo post in un hash — una stringa alfanumerica breve che rappresenta l’intera immagine o il testo. È come un’impronta digitale: unica, riproducibile, confrontabile rapidamente con milioni di altre impronte[2]. L’algoritmo confronta quell’hash con un database di contenuti già flaggati come problematici. Se c’è corrispondenza — bam, contenuto rimosso. Se non c’è, il post passa al secondo livello.
Qui intervengono i Large Language Models addestrati direttamente sulle Community Standards della piattaforma[3]. Meta ha dichiarato nel 2024 di aver iniziato a testare LLM che “performano meglio dei modelli di machine learning esistenti” nel determinare se un contenuto viola le policy. Tradotto: non c’è più un umano che interpreta le regole. C’è un modello linguistico che ha imparato le regole leggendo migliaia di esempi, e ora le applica autonomamente.
I numeri sono impressionanti. Meta riporta che nel secondo trimestre 2024, i sistemi automatizzati hanno rimosso il 90% dei contenuti violenti e grafici su Instagram nell’Unione Europea. Suona bene, no? Efficienza, scala, velocità[4]. Tranne per un dettaglio: gli stessi sistemi hanno rimosso solo il 4% dei contenuti di nudità infantile e abuso fisico[5].
Perché questa discrepanza? Perché la violenza grafica è pattern-recognizable: sangue, armi, corpi mutilati. L’intelligenza artificiale è bravissima a riconoscere pattern visivi evidenti. L’abuso su minori, invece, richiede contesto: chi è nella foto? Qual è la relazione tra le persone? C’è consenso? È documentazione di crimine o sensibilizzazione? L’algoritmo non lo sa. E quindi esita, passa la palla a un umano — che probabilmente è un contractor sottopagato nel Global South, esposto a traumi psicologici documentati in cause legali collettive[6].
Ecco la prima lezione: l’automazione funziona dove il contesto non conta. Ma la maggior parte delle decisioni morali richiede contesto. E quando l’algoritmo non ce la fa, non ti dice “non lo so” — semplicemente applica il criterio più sicuro: in dubio pro piattaforma. Meglio censurare un post legittimo che rischiare cattiva stampa.
Shadow banning: la censura che non osi dire il suo nome
C’è poi il fenomeno più subdolo: il shadow banning, la tecnica di limitare la visibilità di un account senza avvisare l’utente[7]. Il tuo post rimane sulla tua pagina, ma non compare nella For You page di TikTok, non appare negli hashtag di Instagram, non viene raccomandato a nessuno. Dal tuo punto di vista, hai postato normalmente. Dal punto di vista di chiunque altro, sei sparito.
Le piattaforme negano ufficialmente di praticare shadow banning. TikTok non lo ammette. Instagram dice che non esiste. Eppure, migliaia di creator riportano esperienze identiche: engagement che crolla del 90% da un giorno all’altro, video che non superano le 100 visualizzazioni quando prima ne facevano migliaia, contenuti che spariscono dai feed senza spiegazione[8]. La durata media stimata? Due settimane. In alcuni casi, mesi[9].
Chi viene colpito? Non a caso. Uno studio pubblicato su Proceedings of the ACM on Human-Computer Interaction documenta che le comunità marginalizzate — sex workers, attivisti LGBTQ+, creator neri, persone che discutono salute mentale — riportano tassi di shadow banning sproporzionati rispetto a utenti mainstream[10]. Non perché le piattaforme siano esplicitamente discriminatorie (forse), ma perché gli algoritmi addestrati su dati storici riproducono i bias storici. Se nel passato i contenuti LGBTQ+ venivano flaggati più spesso (e lo erano), il modello impara che “LGBTQ+” = “rischio”.
Il meccanismo è ancora più perverso. Uno studio di Yale SOM del 2024 ha dimostrato che è possibile usare shadow banning per spostare l’opinione pubblica su temi politici mantenendo un’apparenza di neutralità[11]. I ricercatori hanno simulato una rete sociale e selettivamente muted/amplificato post con posizioni politiche specifiche. Risultato: sono riusciti a spostare il sentimento collettivo verso destra o sinistra, aumentare o diminuire la polarizzazione, senza che nessun osservatore esterno potesse accorgersene. L’operazione sembrava neutrale perché non censurava esplicitamente nessuna posizione — semplicemente ne mostrava alcune più spesso di altre.
Leggi bene: non serve bannare apertamente un’idea per sopprimerla. Basta renderla meno visibile. Ed è esattamente quello che Wilhelm Grimm faceva con le gravidanze in Raperonzolo: non cancellava il personaggio, semplicemente rendeva la gravidanza invisibile (“i vestiti le vanno stretti”). Il lettore non sapeva cosa mancava. Così funziona il shadow banning: togli senza dire di aver tolto.
La “function creep” e il problema della scala
C’è un altro elemento cruciale: la function creep, il fenomeno per cui uno strumento sviluppato per un uso specifico viene progressivamente esteso ad ambiti sempre più ampi[12].
L’hash matching, per esempio, è nato per contrastare la child sexual abuse material (CSAM) — contenuto illegale, universalmente condannato, che va rimosso immediatamente. Facebook, Google, e altri giganti tech hanno creato database condivisi di hash di immagini CSAM note, così che qualunque piattaforma possa identificarle e bloccarle all’istante. È una tecnologia necessaria, e funziona.
Il problema è che la stessa tecnologia viene ora usata per tutto: copyright, fake news, hate speech, “contenuti sensibili”, “misinformation”, e una categoria sempre più vaga chiamata “contenuto problematico”[13]. L’infrastruttura costruita per proteggere i bambini è diventata l’infrastruttura per moderare qualsiasi cosa la piattaforma decida sia indesiderabile. E chi decide cosa è indesiderabile? Non un legislatore democratico, non un giudice con possibilità di appello. Un team di policy interno alla piattaforma, guidato da incentivi economici (cosa rende felici gli advertiser?) e pressioni politiche (cosa evita regolamentazioni governative?).
Questo è function creep: una tecnologia che nasce con uno scopo limitato e universalmente accettabile diventa, senza dibattito pubblico, l’infrastruttura per controllare l’intero discorso pubblico.
Il Digital Services Act: trasparenza obbligata (ma è abbastanza?)
L’Unione Europea ha tentato una risposta con il Digital Services Act (DSA), entrato pienamente in vigore nel febbraio 2024[14]. Il DSA è il primo tentativo serio di imporre trasparenza algoritmica su scala continentale.
Le regole chiave:
- Statement of reasons: Ogni volta che una piattaforma rimuove o limita un contenuto, deve fornire una spiegazione dettagliata all’utente[15]. Non più “questo post viola le nostre linee guida”. Deve dire quali linee guida, perché il contenuto le viola, se la decisione è stata presa da un algoritmo o da un umano, e come fare appello.
- Transparency reports annuali: Le piattaforme devono pubblicare report che descrivono i sistemi automatizzati usati per moderare contenuti, inclusa la loro accuracy e il possibile tasso di errore[16]. Meta deve dire pubblicamente: “Il nostro sistema sbaglia nel X% dei casi”.
- Systemic risk assessment: Per le Very Large Online Platforms (VLOP) — quelle con più di 45 milioni di utenti UE — c’è l’obbligo di valutare annualmente come i loro sistemi algoritmici possano amplificare rischi sistemici: disinformazione elettorale, hate speech, violenza di genere, minacce alla salute pubblica[17]. E devono implementare misure di mitigazione verificabili da auditor indipendenti.
È un cambio di paradigma. Per la prima volta, le piattaforme devono firmare le loro decisioni. Non possono più dire “l’algoritmo ha deciso”. Devono spiegare come l’algoritmo ha deciso, e accettare responsabilità per gli errori.
Ma funziona davvero? Dipende dall’implementazione. I primi anni di DSA stanno rivelando limiti strutturali[18]:
- Opacità nelle spiegazioni: Molti “statements of reasons” sono formulari generici che non dicono nulla di sostanziale. “Il tuo contenuto viola la policy su hate speech” senza specificare quale frase, quale contesto, quale interpretazione.
- Accessibilità dei dati: I transparency reports sono spesso PDF di centinaia di pagine, con dati aggregati che rendono impossibile verificare casi specifici. La trasparenza diventa compliance burocratica, non accountability reale.
- Asimmetria informativa: Anche quando la piattaforma fornisce dati, solo chi ha competenze tecniche può interpretarli. L’utente medio non sa cosa significa “precision 0.87, recall 0.73”. E nemmeno molti giornalisti.
La lezione del DSA è che trasparenza non è sufficiente senza interpretabilità. Puoi rendere pubblica un’equazione matematica, ma se solo dodici persone al mondo la capiscono, hai davvero reso trasparente il sistema?
Dove stiamo andando? Tre scenari possibili
Ricapitoliamo. Abbiamo:
- Curatela narrativa automatizzata che processa 5,31 miliardi di utenti quotidianamente, con un mercato da $1,24 miliardi nel 2025 destinato a raddoppiare entro il 2029[19].
- Shadow banning documentato ma non ammesso, che colpisce sproporzionatamente comunità marginalizzate.
- Function creep da CSAM a “tutto ciò che è problematico”, senza dibattito democratico su chi decide cosa è problematico.
- DSA europeo che impone trasparenza, ma con limiti pratici nell’effettiva accountability.
Dove ci porta tutto questo? Tre scenari, dal più ottimista al più distopico:
Scenario 1: La trasparenza evolve (ottimista)
Il DSA è solo l’inizio. Nei prossimi anni, la pressione regolatoria aumenta: altri continenti adottano leggi simili, le piattaforme sviluppano interfacce che spiegano le decisioni algoritmiche in linguaggio naturale, nascono organismi indipendenti che verificano i sistemi di moderazione. L’utente medio capisce come funziona il feed, può scegliere tra algoritmi diversi (non solo “cronologico vs. raccomandato”), e ha diritto effettivo di appello quando viene censurato.
In questo scenario, la curatela algoritmica diventa trasparente come la curatela editoriale del XIX secolo. Sai che c’è un curatore, sai chi è, puoi contestarlo. Non è perfetto, ma è democraticamente controllabile.
Scenario 2: La frammentazione regionale (realista)
Europa, Stati Uniti, Cina, India sviluppano standard incompatibili. Le piattaforme implementano versioni diverse del prodotto per ogni giurisdizione: Instagram europeo con DSA compliance, Instagram americano senza trasparenza algoritmica (perché il First Amendment protegge le “decisioni editoriali” delle piattaforme), Instagram cinese sotto controllo governativo diretto.
Il risultato è balcanizzazione digitale: non esiste più “Internet” come spazio unico, ma tante versioni nazionali con regole diverse. La curatela diventa ancora più opaca perché nessuno sa più quale versione dell’algoritmo stai vedendo. Un creator italiano e uno americano che pubblicano lo stesso contenuto vedranno performance completamente diverse, senza capire perché.
Scenario 3: Il controllo totale camuffato da neutralità (distopico)
Le piattaforme usano la complessità come scudo. Forniscono montagne di dati per compliance DSA, ma così tecnici e frammentati che nessuno può verificare davvero cosa succede. Gli algoritmi diventano ancora più sofisticati nel manipolare opinioni senza lasciare tracce rilevabili. La ricerca accademica viene ostacolata da paywall di dati, NDA, e minacce legali.
In questo scenario, la curatela non solo è invisibile — è intenzionalmente oscurata. Le piattaforme hanno imparato che dichiarare trasparenza è più efficace che essere trasparenti. Wilhelm Grimm non solo riscrive Raperonzolo senza firmare, ma pubblica un libro intero su “come abbiamo preservato fedelmente le fiabe tedesche” mentre continua a riscriverle. E tutti ci credono, perché chi ha tempo di confrontare sette edizioni?
La domanda che non possiamo evitare
Torniamo alla metafora iniziale. La scarpetta di Cenerentola non calza mai perfettamente: qualcuno deve sempre tagliare o imbottire per farla sembrare quella giusta. Nel XIX secolo, Wilhelm Grimm tagliava le gravidanze scomode. Oggi, l’algoritmo taglia i post che minacciano il modello di business pubblicitario.
La differenza è che Wilhelm firmava le sue edizioni. Sapevi che stavi leggendo i Grimm, non “la fiaba tedesca autentica”. Potevi contestare la sua interpretazione, proporre una versione alternativa, pubblicare un’edizione rivale. Il dibattito era possibile perché il curatore era visibile.
Oggi no. Oggi hai un sistema che ti mostra “i contenuti”, come se fossero una realtà oggettiva invece che il prodotto di infinite decisioni curatoriali. E quando chiedi chi ha deciso, ti rispondono: “L’algoritmo”. Ma l’algoritmo è stato programmato da qualcuno, addestrato su dati scelti da qualcuno, ottimizzato per metriche decise da qualcuno.
La domanda non è: “Dobbiamo eliminare la curatela algoritmica?”. La curatela è inevitabile. Con 5 miliardi di utenti, non puoi non curare. La domanda è: “Chi cura, secondo quali criteri, e possiamo contestarlo?”
E fino a quando la risposta sarà “non lo sappiamo, non possiamo verificarlo, e non c’è modo di opporsi”, saremo esattamente nella stessa posizione dei lettori del 1857 che credevano di leggere “fiabe autentiche” mentre leggevano Wilhelm Grimm che riscriveva la cultura tedesca secondo il suo progetto nazionalista.
Solo che stavolta, il Wilhelm Grimm che riscrive le tue fiabe quotidiane è un LLM addestrato per massimizzare l’engagement pubblicitario. E non ha nemmeno un nome.
Riferimenti
[1] Apodaca, T., & Uzcátegui-Liggett, N. (2024). “How Automated Content Moderation Works (Even When It Doesn’t)”. The Markup, March 1, 2024. https://themarkup.org/automated-censorship/2024/03/01/
[2] Ibid. Sezione tecnica su hash generation e SHA-256 algorithms.
[3] Meta Platforms (2024). “Using Large Language Models for Content Moderation”. Meta Newsroom, citato in The Markup (2024).
[4] Meta Platforms (2024). “DSA Transparency Report Q2 2024 – European Union”. Dati su automated removal rates per categoria di contenuto.
[5] Ibid. Confronto tra violent/graphic content (90%) e child nudity/physical abuse (4%) removal rates.
[6] U.S. Congress Research Service (2024). “Social Media: Content Dissemination and Moderation Practices”. Report R46662. https://www.congress.gov/crs-product/R46662
[7] Masood, A. (2025). “Platform Visibility and Content Moderation: Algorithms, Shadow Bans & Governance”. Medium, May 19, 2025.
[8] Viralyft (2024). “What is a Shadow Ban on Instagram & TikTok?”. March 8, 2024. https://viralyft.com/blog/shadow-ban
[9] Shopify (2025). “TikTok Shadow Ban in 2025: 5 Ways to Fix It”. Riporta stime basate su creator reports: 2 settimane tipiche, fino a mesi in casi gravi.
[10] Cotter, K., et al. (2022). “‘What are you doing, TikTok?’: How Marginalized Social Media Users Perceive, Theorize, and ‘Prove’ Shadowbanning”. Proceedings of the ACM on Human-Computer Interaction. https://dl.acm.org/doi/10.1145/3637431
[11] Chen, Y.-S., & Zaman, T. (2024). “How Shadow Banning Can Silently Shift Opinion Online”. Yale Insights, May 9, 2024. https://insights.som.yale.edu/insights/how-shadow-banning-can-silently-shift-opinion-online
[12] Centre for International Governance Innovation (2024). “Algorithmic Content Moderation Brings New Opportunities and Risks”. https://www.cigionline.org/articles/algorithmic-content-moderation-brings-new-opportunities-and-risks/
[13] Ibid. Sezione su function creep da CSAM hash-matching a general policy enforcement.
[14] AlgorithmWatch (2024). “A guide to the Digital Services Act”. https://algorithmwatch.org/en/dsa-explained/
[15] Digital Services Act, Regulation (EU) 2022/2065, Article 17: Statement of Reasons.
[16] Ibid. Article 15 e Article 42: Transparency reporting requirements per automated content moderation systems.
[17] Ibid. Articles 34-37: Systemic risk assessment e independent auditing per Very Large Online Platforms.
[18] ITIF (2025). “EU Should Improve Transparency in the Digital Services Act”. October 20, 2025. https://itif.org/publications/2025/10/20/
[19] Vertu (2025). “Exploring AI Content Moderation Types and Applications in 2025”. Market projections: $1.24B (2025) → $2.59B (2029) at 20.5% CAGR.
[20] Hanga Technologies (2025). “AI Content Moderation: How Automation Is Transforming Social Media Safety in 2025”. 5.31 billion social media users statistic.
[21] Cole, M.D. (2023). “Algorithmic transparency and accountability of digital services”. European Audiovisual Observatory (Council of Europe). IRIS Special 2023-2. https://rm.coe.int/iris-special-2023-02en/1680aeda48
[22] World Economic Forum (2022). “Here’s how the Digital Services Act changes content moderation”. December 2022. https://www.weforum.org/stories/2022/12/
[23] Chicago Policy Review (2024). “The EU’s Digital Services Act takes on ‘The Algorithm’”. January 1, 2024. https://chicagopolicyreview.org/2024/01/01/

Leave a comment