Come l’intelligenza artificiale sta riscrivendo la storia senza che ce ne accorgiamo
Pensavo di avere sviluppato un discreto sistema immunitario contro la disinformazione digitale. Dopo anni passati a decostruire prompt, analizzare system prompt, mappare le architetture nascoste dell’AI, credevo di riconoscere a colpo d’occhio un contenuto generato artificialmente. Poi l’algoritmo di YouTube mi ha raccomandato un video che campeggiava sulla home page: la storia commovente di Thomas e Marcus, due uomini – uno bianco, uno nero – fotografati insieme nel 1889 a Richmond, Virginia. Un’amicizia impossibile nell’epoca della segregazione, immortalata in una fotografia che sarebbe diventata “testimonianza” in un processo per schiavitù per debiti.
Non l’ho cercato. Non ho digitato parole chiave sospette. L’algoritmo ha semplicemente deciso che questo era il contenuto perfetto per me.
La storia era perfettamente orchestrata: nomi completi con cognomi plausibili, date precise, istituzioni reali (il National Museum of African American History and Culture), persino dettagli burocratici come un curatore di nome James Rivera e una donatrice chiamata Dorothy Hayes. Il video citava documenti d’archivio, cause legali del 1889, necrologi. Tutto verificabile, in teoria. Tutto falso, in pratica.
Ho cercato. Ho scavato negli archivi digitali, interrogato database storici, verificato ogni nome, ogni data, ogni affermazione. Nulla. La fotografia non esiste. Le persone non esistono. Il processo non è mai avvenuto. Eppure, mentre cercavo, una parte di me voleva che fosse vera, perché la storia funzionava troppo bene – drammaturgicamente, emotivamente, pedagogicamente. Era il tipo di storia che avrebbe dovuto essere vera, anche se non lo era.
Quello che mi ha colpito non è stata la tecnologia in sé. Piuttosto, mi sono reso conto di quanto siamo vulnerabili davanti a falsificazioni costruite per superare proprio i nostri filtri cognitivi più sofisticati. La questione vera è che abbiamo imparato a fabbricare menzogne indistinguibili dalla verità.
L’Architettura della Plausibilità
YouTube, in questo momento, è sommerso da un’industria invisibile che produce storia-fiction spacciata per documentazione. Non parlo dei soliti video complottisti facilmente identificabili – quelli con thumbnail gridati, frecce rosse, titoli ALL CAPS che promettono “LA VERITÀ CHE NON VOGLIONO FARTI SAPERE”. Quelli li riconosciamo a distanza.
Questo è qualcosa di diverso. Un ecosistema sofisticato che ha compreso una lezione fondamentale: la falsità più efficace mima perfettamente la banalità del vero, senza urlare la propria eccezionalità.
Il meccanismo è industriale nella sua efficienza:
- Script AI-generated (ChatGPT, Claude) alimentati con prompt ottimizzati per coinvolgimento emotivo su topic storicamente sensibili
- Immagini AI (Midjourney, DALL-E, Stable Diffusion) o, più subdolamente, fotografie d’epoca reali ma decontestualizzate
- Voci fuori campo sintetiche (ElevenLabs, Murf.ai) con accenti “autorevoli” – spesso British English per conferire gravitas
- Editing automatizzato (Pictory, Descript) che crea il ritmo di un documentario professionale
- Caricamento massivo con SEO ottimizzata per massimizzare reperibilità
Il costo marginale per video è praticamente zero. Un singolo creator può produrre 10-15 video al giorno. Alcuni canali hanno caricato oltre 750 video in pochi mesi, accumulando decine di milioni di visualizzazioni combinate [1].
Ma il vero colpo di genio sta nella strategia di ancoraggio epistemico: ogni storia falsa viene costruita attorno a un nucleo di verità documentata. La peonage nel Sud post-Guerra Civile è reale, drammaticamente reale [2]. Sistema di schiavitù per debiti che ha intrappolato centinaia di migliaia di afroamericani (e alcuni bianchi poveri) fino agli anni ’60 del Novecento [3], anche se formalmente abolito dal Peonage Act del 1867 [4]. I tribunali del Sud raramente sentenziavano a favore di mezzadri neri contro proprietari bianchi. I contratti erano vessatori, i tassi d’interesse usurai, le corti complici.
Quindi: il video su Thomas e Marcus non inventa tutto. Prende un contesto verificabile e innesta personaggi fittizi con archi narrativi drammaticamente perfetti. Il risultato? Una parabola storicizzata – molto simile alle exempla medievali che Boccaccio presentava come “realmente accadute” per dare peso morale alla narrazione.
La differenza cruciale: Boccaccio scriveva nel Trecento, prima che esistesse il concetto moderno di fact-checking. Questi video operano in un’epoca dove distinguere fatto da finzione è teoricamente possibile; praticamente, sempre più difficile.
Il Collasso della Distinzione
Storici professionisti stanno lanciando allarmi sempre più disperati. Pete Kelly, che gestisce il popolare canale YouTube “History Time”, ha descritto la situazione come “completamente scioccante”: “Prima bastava passare un’intera vita a ricercare, scrivere, narrare, editare per fare un video, ma ora qualcuno può fare la stessa cosa in un giorno invece che in sei mesi, e i video non sono accurati” [5].
I ricercatori avvertono che questi contenuti storici AI-generated impiantano falsi ricordi – narrative storiche false che alterano come le persone ricordano eventi reali [5]. Studi neuroscientifici mostrano che il fatto che le informazioni siano credute vere o fittizie attiva reti neurali diverse durante la lettura; ma uno stile narrativo sufficientemente coinvolgente può produrre immersione ed emozioni forti indipendentemente dalla credenza di veridicità [6].
Anche dopo aver scoperto che la storia di Thomas e Marcus è finzione, il mio cervello continua a trattarla come “quello che so sulla peonage”. La sovrapposizione mnemonica è avvenuta; i dettagli inventati si sono mischiati al contesto documentato. Separarli richiede uno sforzo cognitivo attivo che la maggior parte delle persone non compie.
Il fenomeno ha una dimensione particolarmente tossica contro la storia afroamericana. Come ha osservato un’esperta intervistata da NBC News: “Usano il gergo della cultura, lo slang della cultura, perché i neri si fidano dei media neri. C’è stata una storica sfiducia nei media mainstream nel modo in cui le nostre storie vengono raccontate” [1].
Esempio perfetto di fiducia armata: questi canali sfruttano lacune informative reali (la storia afroamericana è drammaticamente sottorappresentata nei curricula scolastici USA) e sfiducia giustificata (i media mainstream hanno effettivamente censurato o ignorato storie importanti) per inserire narrative completamente inventate che “colmano il vuoto”.
Il problema va oltre la semplice produzione di falsità. Producono falsità che sembrano colmare lacune reali nella memoria storica collettiva.
L’Economia della Post-Verità
Una domanda cruciale: questi creator sono convinti di fare una cosa giusta, o stanno semplicemente monetizzando la credulità?
La risposta non è binaria – è uno spectrum che va dal cinismo puro alla razionalizzazione sofisticata:
Tipologia 1 – Le content farm pure: Canali che erano nati come tech review legittimi e sono “pivotati” completamente verso AI slop [1]. Decisione economica razionale in un mercato distorto. Nessuna illusione pedagogica, solo occasione per fare profitti in nome di un neocapitalismo riemergente.
Tipologia 2 – I disperati economici: Creator che producono contenuto di qualità (1 video al mese con ricerca seria, 50k views) vedono canali AI fare 10 video al giorno con 200k views ciascuno. La tentazione è brutale. Si autoconvincono: “Tanto l’algoritmo premia già la spazzatura, almeno io racconto storie importanti che altrimenti nessuno conoscerebbe”. Classico moral licensing: “sto facendo del bene quindi posso permettermi qualche shortcut etico” [7].
Tipologia 3 – I credenti nella “verità emotiva”: Categoria più insidiosa perché genuinamente si autoconvince. Il ragionamento: la peonage è reale → storie come questa sono successe migliaia di volte → nessuno le racconta perché non ci sono documenti drammatici singoli → quindi se creo una storia composita che rappresenta quella verità sistemica, sto facendo divulgazione. Non stanno “mentendo”, stanno “raccontando una verità più profonda” [8]. La distinzione tra storia-come-documentazione e storia-come-parabola collassa nella loro mente.
Tipologia 4 – Gli automatizzatori inconsapevoli: Esiste un intero ecosistema di tutorial su “secondo lavoro online” con Discord server che condividono prompt templates, Notion databases con “high-performing historical topics”, Google Sheets con keyword research per SEO. Molti creator stanno letteralmente seguendo una recipe industriale senza riflettere. Come lavorare in un call center – esegui lo script, raggiungi la quota. La dimensione etica non viene neanche contemplata.
Tutti questi gruppi (tranne forse i più cinici della Tipologia 1) usano strategie di disimpegno morale [7]: eufemismi linguistici (“historical storytelling” invece di “fake history”), spostamento di responsabilità (“se YouTube lo promuove deve andare bene”), diffusione di responsabilità (“tutti fanno AI content”), giustificazione morale (“sto educando su storia importante ignorata”), minimizzazione delle conseguenze (“è solo intrattenimento”).
E YouTube? Guadagna da questi contenuti attraverso AdSense. Ha dichiarato che demonetizzerà video “prodotti in massa” dal 15 luglio 2025 [9], ma gli esperti intervistati confermano che nessuno ha notato cambiamenti reali. L’applicazione delle policy è cosmetica.
Ma c’è un aspetto ancora più inquietante: YouTube non si limita a ospitare questi contenuti, li raccomanda attivamente. Il video su Thomas e Marcus non era nascosto in qualche angolo oscuro della piattaforma; campeggiava sulla home page, selezionato dall’algoritmo come contenuto “rilevante” in base alla cronologia di visualizzazione. L’algoritmo ha analizzato i miei interessi (storia, AI, contenuti tecnici) e ha deciso che una storia-fiction spacciata per documentazione era esattamente quello che dovevo vedere.
Questo ribalta completamente la questione della responsabilità. YouTube potrebbe dire: “Noi forniamo solo l’infrastruttura, i creator caricano quello che vogliono”. Ma l’algoritmo di raccomandazione è una scelta editoriale. Decidere cosa mostrare a chi, in quale ordine, con quale prominenza – queste sono decisioni curatoriali, non infrastrutturali. E in questo momento, la piattaforma sta curando attivamente la diffusione di storia falsa verso utenti che hanno dimostrato interesse per storia vera.
Classica tragedia dei commons digitali: comportamenti individualmente razionali (fare AI slop) creano collettivamente un ecosistema tossico che danneggia tutti – erosione della fiducia nella storia, impossibilità di distinguere fact da fiction.
Il Trilemma Epistemico
Siamo arrivati a un punto di non ritorno: la distinzione tra “fake evidente” e “fake sofisticato” è collassata. Non perché sia tecnicamente impossibile verificare – ho verificato la storia di Thomas e Marcus in meno di un’ora – ma perché il costo cognitivo della verifica è sistematicamente superiore al costo di produzione della falsità.
Pensateci. Per smontare quel video ho dovuto: cercare in database storici digitali, verificare l’esistenza del curatore citato, controllare se quella donatrice esiste, cercare tracce del processo legale del 1889, verificare se esiste quella fotografia in archivi reali, controllare se i nomi dei personaggi compaiono in censimenti d’epoca.
Tutto questo: circa 45 minuti di ricerca attiva. Il video è stato probabilmente generato in 15 minuti con una pipeline completamente automatizzata.
Il rapporto è 3:1 a favore della falsificazione. E questo sono io – qualcuno con competenze tecniche, accesso a database, abitudine alla verifica delle fonti. Per la maggior parte delle persone quel rapporto è infinitamente peggiore.
C’è un problema più sottile: la verifica richiede sospetto preventivo. Devo già dubitare per decidere di verificare. Ma il video di Thomas e Marcus era costruito proprio per non attivare sospetto – perfettamente calibrato sulla soglia di plausibilità storica.
Ecco il trilemma epistemico:
- Verificare tutto = cognitivamente insostenibile, paralisi informativa
- Fidarsi della fonte = ma le fonti sono ora indistinguibili (canali AI che mimano documentari BBC)
- Usare euristiche di plausibilità = ma le falsità sono costruite per superare proprio quelle euristiche
Nessuna delle tre opzioni è percorribile a lungo termine. La prima porta all’esaurimento cognitivo; la seconda alla credulità sistemica; la terza è già stata aggirata.
La Memoria come Campo di Battaglia
C’è una domanda che mi ossessiona da quando ho scoperto quella storia falsa: perché la storia di Thomas e Marcus funziona meglio di storie vere documentate?
Perché ha un arco narrativo perfetto: amicizia impossibile → testimonianza coraggiosa → tradimento sistemico → morte sospetta → redenzione postuma attraverso la fotografia. Parabola morale cristallizzata. Le storie vere sono più frammentarie, ambigue, inconcludenti. Un documento d’archivio reale sulla peonage è un contratto illeggibile con termini legali oscuri; un necrologio è burocratico; una testimonianza in tribunale è tecnica.
La fiction ha sempre avuto questo vantaggio sulla realtà: può essere drammaturgicamente perfetta in un modo che la vita vera non è mai. Il problema? Ora quella perfezione drammaturgica può essere prodotta industrialmente, a costo zero, su scala, e spacciata per documentazione.
Stiamo assistendo all’emergenza di quello che potremmo chiamare storiografia sintetica: narrative storiche che non documentano eventi reali ma sintetizzano pattern sistemici in storie emotivamente perfette [8]. Qualcosa di nuovo, qualcosa per cui non abbiamo ancora sviluppato categorie epistemiche adeguate.
E il problema diventa ancora più complesso: alcune di queste narrative sintetiche potrebbero effettivamente servire una funzione pedagogica. La storia di Thomas e Marcus, anche se inventata, cristallizza in una vicenda memorabile dinamiche strutturali che altrimenti resterebbero astratte – i contratti vessatori, le corti complici, la violenza come imposizione del sistema.
Verità emotiva contro verità fattuale; non è chiaro quale dovrebbe prevalere nell’educazione storica di massa. I documentari storici usano sempre attori, ricostruzioni, dialoghi inventati – ma lo dichiarano esplicitamente. Questi video non lo fanno. Ecco il confine che viene attraversato.
Verso un’Archeologia della Falsificazione
Se c’è una lezione da trarre da questa storia: abbiamo bisogno di nuovi strumenti cognitivi per un ecosistema informativo dove la distinzione tra vero e falso non è più binaria ma graduale.
Alcune proposte operative:
1. Alfabetizzazione alla plausibilità: Non basta insegnare a “verificare le fonti”. Bisogna insegnare a riconoscere i pattern della plausibilità artificiale – le storie che funzionano troppo bene, i dettagli che sono troppo perfetti, le narrative che hanno archi drammatici troppo puliti. La realtà è sempre più incasinata della fiction.
2. Metadata epistemici: Dovremmo sviluppare standard per etichettare il “grado di verità” dei contenuti storici. Non “vero/falso” ma: documentato/plausibile/speculativo/fittizio. Con obbligo di disclosure. Un documentario BBC che usa attori dovrebbe dire “ricostruzione basata su documenti X,Y,Z”. Un video AI dovrebbe dire “narrative sintesi di pattern storici, personaggi fittizi”.
3. Inversione dell’onere della prova: Invece di chiedere agli utenti di verificare ogni contenuto (impossibile), dovremmo chiedere alle piattaforme di verificare i creator. Un sistema di certificazione per contenuti storici: se vuoi pubblicare come “documentario” devi mostrare le tue fonti. Altrimenti sei automaticamente categorizzato come “intrattenimento”.
4. Educazione alla “diffidenza generativa”: Insegnare specificamente che l’AI è bravissima a generare contenuti plausibili ma falsi. Dovremmo sviluppare una forma di sospetto epistemico calibrato – non paranoia universale, ma awareness che la facilità di produzione ha superato la facilità di verifica.
5. Creazione di “dataset di falsità”: La ricerca sulla misinformazione AI è ostacolata dalla mancanza di dataset etichettati. Se documentassimo sistematicamente questi canali (URL, pattern narrativi, tecniche usate, affermazioni false), potremmo creare strumenti automatici di detection. Un progetto open source potrebbe mappare l’intero ecosistema.
Ma soprattutto, dobbiamo riconoscere che la battaglia per la memoria storica si è spostata. Non si combatte più tra storici seri e negazionisti evidenti; si combatte tra documentazione frammentaria e narrative sintetiche perfette. E in questa battaglia, la verità parte svantaggiata: è più costosa da produrre, meno emotiva da consumare, più ambigua da interpretare.
Il Prezzo della Velocità
C’è un’ultima cosa che mi disturba profondamente in tutta questa storia. Il video che ho trovato è straordinariamente ben fatto. Il ritmo narrativo, la costruzione emotiva, la scelta dei dettagli storici da includere per costruire credibilità. Se quel livello di competenza fosse applicato alla storia vera invece che alla fiction, avremmo documentari storici eccezionali.
Ma la storia vera richiede tempo. Mesi di archivio, verifica di fonti primarie, consultazione con esperti, revisione tra pari. La fiction richiede 15 minuti e un prompt ben scritto.
Ecco cosa la Legge di Gresham ci insegna sui mercati dell’informazione: la moneta cattiva scaccia quella buona – non perché la gente preferisce la falsità alla verità, ma perché la falsità può essere prodotta più velocemente e a costo inferiore [10]. In un ecosistema dove l’algoritmo premia velocità e volume, il contenuto cheap e veloce scaccerà sempre quello accurato e lento.
YouTube non è un archivio neutro; è un mercato con incentivi distorti. E in quel mercato, la storia vera sta perdendo.
La domanda non è se possiamo fermare questa tendenza. La domanda è: quanto della nostra memoria storica collettiva siamo disposti a sacrificare prima di intervenire?
Riferimenti
[1] Petersen, K. (2024). “Fake news YouTube creators target Black celebrities with AI-generated misinformation”, NBC News, 30 gennaio.
https://www.nbcnews.com/tech/misinformation/ai-deepfake-fake-news-youtube-black-celebrities-rcna133368
→ Perché incluso: Documenta con dati specifici l’industria AI-slop su YouTube (750+ video, 20+ milioni views per canale), conferma pivot da tech review a fake news, riporta testimonianze esperte su weaponized trust e uso strategico del linguaggio culturale.
[2] Ransom, R.L. & Sutch, R. (1972). “Debt Peonage in the Cotton South After the Civil War”, Journal of Economic History, 32(3), 641-669.
→ Perché incluso: Paper accademico fondamentale che documenta l’economia della peonage post-bellica nel Sud, con dati quantitativi su contratti, tassi d’interesse, sistema dei crediti agricoli.
[3] Daniel, P. (1972). The Shadow of Slavery: Peonage in the South, 1901–1969, University of Illinois Press.
→ Perché incluso: Analisi storica completa che documenta la persistenza della peonage fino agli anni ’60, nonostante l’abolizione formale del 1867.
[4] “Peonage Act of 1867”, Wikipedia.
https://en.wikipedia.org/wiki/Peonage_Act_of_1867
→ Perché incluso: Verifica data precisa (2 marzo 1867) e testo dell’atto che aboliva formalmente la peonage, confermando affermazione storica fondamentale.
[5] Koebler, J. (2025). “AI Generated ‘Boring History’ Videos Are Flooding YouTube and Drowning Out Real History”, 404 Media, 3 settembre.
https://www.404media.co/ai-generated-boring-history-videos-are-flooding-youtube-and-drowning-out-real-history/
→ Perché incluso: Reportage investigativo con testimonianze dirette di storici professionisti (Pete Kelly citato), documenta impatto su creator legittimi e allarmi su falsi ricordi impiantati da contenuti AI.
[6] Altmann, U. et al. (2014). “Fact vs Fiction: How Paratextual Information Shapes Our Reading Processes”, Social Cognitive and Affective Neuroscience, 9(1), 22-29.
→ Perché incluso: Ricerca neuroscientifica che documenta come reti neurali diverse si attivano per fiction vs fact, ma stile narrativo coinvolgente produce immersione indipendentemente dalla veridicità percepita.
[7] Bandura, A. (1999). “Moral disengagement in the perpetration of inhumanities”, Personality and Social Psychology Review, 3(3), 193-209.
→ Perché incluso: Framework teorico sul disimpegno morale che spiega meccanismi psicologici di razionalizzazione usati dai creator (eufemismi linguistici, spostamento responsabilità, minimizzazione conseguenze).
[8] “Using Fake History to Make Real Money” (2025), Our History Too/Medium, ottobre.
https://medium.com/@OurHistoryToo/using-fake-history-to-make-real-money-c4ba4c0765bc
→ Perché incluso: Analisi critica del fenomeno “docufiction” storica su YouTube, con case study specifico e decostruzione tecniche narrative usate per creare credibilità falsa.
[9] “YouTube Cracks Down On ‘Inauthentic’ AI-Generated Content By Removing Monetization” (2025), Black Enterprise, 11 luglio.
https://www.blackenterprise.com/youtube-inauthentic-ai-generated-content-demonetization/
→ Perché incluso: Documenta policy YouTube aggiornate (15 luglio 2025) su demonetizzazione contenuti AI “mass-produced”, fornisce contesto su applicazione limitata delle norme.
[10] Vosoughi, S., Roy, D., & Aral, S. (2018). “The spread of true and false news online”, Science, 359(6380), 1146-1151.
→ Perché incluso: Studio MIT fondamentale che documenta come notizie false si diffondono più velocemente/lontano/profondamente di quelle vere su Twitter, supporta analogia con Legge di Gresham applicata all’informazione.

Leave a comment