
Nel 1440, Lorenzo Valla smontò la Donazione di Costantino con gli strumenti della filologia. Il documento — un falso dell’VIII secolo che per seicento anni aveva giustificato il potere temporale dei papi — crollò sotto il peso di un anacronismo lessicale: la parola satrapa, che nessun romano del IV secolo avrebbe usato. Valla non aveva algoritmi, non aveva detector, non aveva blockchain. Aveva il latino, e sapeva leggerlo.
Cinquecentottantasei anni dopo, il 1° aprile 2026, un razzo SLS è partito da Cape Canaveral portando quattro persone verso la Luna. La prima missione con equipaggio oltre l’orbita bassa dal 1972. Un evento reale, documentato da migliaia di telecamere, trasmesso in diretta dalla NASA, con telemetria pubblica verificabile in tempo reale. Eppure, entro ventiquattr’ore, i social si sono riempiti di due cose: immagini generate dall’AI spacciate per foto autentiche — un’aquila calva posata sulla capsula Orion, grande tre volte un’aquila vera — e accuse che le foto autentiche fossero generate dall’AI. La stessa foto di Reid Wiseman che ritrae la Terra con le aurore boreali durante l’eclisse solare ha generato commenti del tipo “sembra Midjourney”.
Siamo nel territorio in cui il falso e il vero hanno smesso di essere categorie operative.
La tentazione è pensare che sia un problema nuovo. Non lo è. La Donazione di Costantino ha funzionato per sei secoli — non perché fosse un falso convincente, ma perché era un falso utile. Serviva a chi aveva il potere di imporlo. Dante lo sapeva già nel 1320, quando nell’Inferno maledice non la conversione di Costantino ma la donazione che ne seguì. Il documento era sospetto da sempre; Ottone III ne aveva messo in dubbio l’autenticità già nel 1001. Ma smascherarlo richiedeva un atto di coraggio intellettuale che per quattro secoli nessuno aveva avuto interesse a compiere. Valla lo fece perché il suo datore di lavoro, Alfonso d’Aragona, era in conflitto territoriale con lo Stato Pontificio. La filologia, in quel caso, era anche geopolitica.
Quello che cambia oggi non è la natura del problema — il falso spacciato per vero, il vero trattato come falso — ma la sua scala e la sua velocità. Un falso medievale impiegava secoli a circolare e secoli a essere smascherato. Un’immagine AI di un’aquila sulla capsula Orion viene generata, pubblicata, condivisa centomila volte e smontata da un fact-checker nell’arco di quarantott’ore. Ma il danno epistemico non è nella singola immagine falsa: è nel rumore di fondo che produce. Dopo la terza aquila falsa, la decima foto “troppo bella”, il ventesimo video sospetto, la reazione naturale diventa trattare tutto come potenzialmente falso. E qui si innesta il meccanismo più insidioso.
Nel 2018, i giuristi Bobby Chesney e Danielle Citron hanno coniato il termine liar’s dividend — il dividendo del bugiardo. L’idea è semplice e devastante: in un mondo dove i falsi profondi esistono e tutti lo sanno, chiunque venga colto in flagrante può dire “è un deepfake” e il dubbio ragionevole giocherà a suo favore. La possibilità tecnica della falsificazione diventa un’arma difensiva per chi mente davvero. Gli avvocati di Tesla hanno sostenuto in tribunale che le dichiarazioni di Elon Musk sulla sicurezza della guida autonoma non potevano essere usate come prova perché potevano essere deepfake. Un miliziano accusato di aver portato un’arma al Campidoglio il 6 gennaio 2021 ha fatto argomentare dalla difesa che le prove video fossero falsificate. Il New York Times ha documentato come durante la guerra in Iran del 2026 la proliferazione di video generati dall’AI abbia portato a classificare erroneamente come falsi video autentici, compreso uno del primo ministro israeliano.
Il dividendo del bugiardo è il nipote diretto della Donazione di Costantino, con una differenza cruciale: la Donazione era un falso che serviva al potere; il dividendo del bugiardo è il dubbio stesso che serve al potere. Non devi più fabbricare un documento falso — basta che esista la possibilità tecnica di fabbricarlo, e qualsiasi documento vero diventa contestabile.
E poi c’è il rovescio della medaglia, che nel 2026 ha un nome: AI shaming.
Scrivi un articolo con cura, scegliendo ogni parola, e qualcuno nei commenti scrive “l’ha fatto ChatGPT”. Scatti una foto ben composta e la reazione è “sembra Midjourney”. Presenti un’analisi lucida e articolata — troppo articolata, evidentemente, per un essere umano — e il sospetto si attiva. Chi accusa non deve dimostrare nulla. Chi è accusato deve provare un negativo, il che è logicamente impossibile. È un’inversione dell’onere della prova che ricorda dinamiche storiche poco edificanti.
Un paper presentato a CHI 2025 da Advait Sarkar ha inquadrato la cosa con precisione chirurgica: l’AI shaming è una forma di boundary work classista. Il lavoro intellettuale ha sempre definito i confini di classe attraverso l’esclusività delle competenze richieste; l’AI li minaccia abbassando la barriera d’ingresso, e la reazione è stigmatizzare chi la usa — o chi sembra usarla — per difendere il valore identitario del “fare da soli”. La cosa si fa grottesca quando si scopre che certe parole segnalate come “tipiche dell’AI” — delve, per esempio — sono in realtà tratti dell’inglese nigeriano. Come ha scritto un commentatore nigeriano rispondendo a Paul Graham: dopo averci imposto la vostra lingua coloniale, adesso ci dite che non possiamo usarne le parole perché suonano troppo artificiali?
Nelle università americane la situazione è già degenerata. Studenti che registrano video di sé stessi mentre scrivono i compiti per dimostrare di non aver usato l’AI. Studentesse che riscrivono i propri testi fino a renderli deliberatamente peggiori, perché i detector segnalano la prosa troppo fluida come sospetta. Un mercato fiorente di “umanizzatori” — software che prende testo umano e lo rende meno coerente per ingannare i detector. Il serpente si morde la coda: usiamo l’AI per sembrare meno intelligenti di quanto siamo, perché essere troppo intelligenti è diventato indizio di frode.
È un manierismo al contrario. Nel mercato dell’arte, i falsari invecchiano artificialmente i dipinti per simulare autenticità — crepe nella vernice, patina, foxing sulla carta. Nelle università del 2026, gli studenti onesti fanno l’operazione inversa: sporcano il proprio lavoro per simulare imperfezione umana. In entrambi i casi, il difetto diventa certificato di autenticità. Non cerchiamo più il vero — cerchiamo l’errore autenticante, il segno di fabbricazione artigianale che distingue l’umano dalla macchina. Come le magliette vendute già strappate: il difetto non è un difetto, è un marchio. E quando il difetto diventa il criterio, la critica si trasforma in inquisizione stilistica — una caccia alle streghe basata su euristiche che non reggono il primo esame, come il caso di delve dimostra.
Boh. Forse il problema è che stiamo cercando soluzioni tecniche a un problema che è culturale fin dalle fondamenta. Il Content ID di YouTube — il “notaio cieco” che ha sequestrato a Nvidia il video del proprio trailer DLSS 5 perché La7 lo aveva mandato in onda e l’algoritmo ha dato ragione all’emittente — cerca corrispondenze di pattern, non paternità. I detector di testo AI cercano marcatori stilistici, non autenticità. Nessuno di questi strumenti capisce — applicano regole senza comprenderle, esattamente come il copista medievale che ricopiava la Donazione di Costantino senza chiedersi se il latino avesse senso.
La differenza è che il copista medievale era un essere umano che avrebbe potuto fermarsi e pensare. Il nostro notaio è un algoritmo, e l’assenza di pensiero non è un difetto — è una specifica di progetto. Ma la trappola vera non è l’errore dell’algoritmo: è la complicità del sistema che lo circonda. Content ID non cerca la verità — cerca la riduzione dell’esposizione legale di YouTube. È più sicuro per una piattaforma bloccare un video autentico che rischiare una causa per violazione di copyright. La filologia di Valla serviva a un sovrano che voleva la verità (per i propri fini, certo, ma la voleva); la nostra filologia algoritmica serve a un ufficio legale che vuole la mitigazione del rischio. Sono due mandati diversi, e producono risultati diversi.
Quello che servì a Valla nel 1440 non fu una tecnologia di verifica. Fu un metodo: la capacità di leggere un testo, riconoscerne gli anacronismi, collocarlo nel tempo, valutarne la coerenza interna. Era filologia — l’arte di distinguere il genuino dallo spurio attraverso l’analisi critica, non attraverso la corrispondenza automatica. E funzionava perché Valla aveva la competenza per applicarla e il coraggio di applicarla contro il potere.
Oggi abbiamo bisogno dello stesso metodo, applicato a un ambiente informativo che si muove a velocità incomparabili. Non bastano i watermark (aggirati in settimane), non bastano i detector (pieni di falsi positivi che distruggono la vita accademica di studenti innocenti), non basta la blockchain (che certifica l’immutabilità di qualunque cosa ci metti dentro, falsi compresi). La tentazione è invocare un’alfabetizzazione filologica di massa — la capacità diffusa di valutare le fonti, riconoscere le catene di provenienza, distinguere il rumore dal segnale. Ma sarebbe disonesto non vedere il limite di questa proposta: Valla poteva permettersi mesi di analisi su un singolo documento; l’utente medio del 2026 consuma trecento frammenti informativi in un’ora. Se il costo cognitivo della verifica supera il valore sociale della verità, la massa sceglierà sempre il pregiudizio o il cinismo. La “cultura generale” è un’arma spuntata contro un’economia dell’attenzione che premia la reazione viscerale.
C’è un problema ancora più profondo. Valla trovò satrapa perché il falsario dell’VIII secolo non aveva gli strumenti per evitare l’errore. Un modello linguistico addestrato sui corpora classici non commetterebbe quell’errore — userebbe esattamente il lessico del IV secolo, perché è stato addestrato sui testi che Valla ha salvato. La filologia funziona quando il falso è più rozzo del metodo critico disponibile. Quando il falso diventa più sofisticato del critico, il metodo si spezza. Non siamo ancora lì, ma la traiettoria è chiara.
Lorenzo Valla non aveva bisogno di un Content ID per smascherare la Donazione di Costantino. Gli bastava saper leggere. Il fatto che nel 2026 ci servano algoritmi per distinguere il vero dal falso — e che quegli algoritmi falliscano regolarmente — dice qualcosa di preciso: non sulla tecnologia, ma su di noi. Sulla nostra disponibilità a delegare il giudizio, e sul prezzo che paghiamo quando lo facciamo.
L’aquila calva su Orion era falsa. La foto di Wiseman con le aurore è vera. Distinguerle non richiede un detector — richiede sapere che le aquile calve non sono alte tre metri e che la NASA pubblica le proprie foto con metadati verificabili. Richiede, in altre parole, quello che una volta si chiamava cultura generale. Non so se basti. Ma in un mondo dove “essere troppo intelligenti è diventato indizio di frode”, non vedo molte alternative che non passino per una qualche forma di coraggio intellettuale — lo stesso che servì a Valla nel 1440, e che non si può automatizzare.
Riferimenti
[1] Chesney R., Citron D., Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, 2018. Il paper che introduce il concetto di liar’s dividend. URL: https://scholarship.law.bu.edu/faculty_scholarship/640
[2] Schiff K.J., Schiff D.S., Bueno N., The Liar’s Dividend: Can Politicians Claim Misinformation to Evade Accountability?, American Political Science Review, 2024. Studio sperimentale su 15.000 adulti americani: le false accuse di misinformazione aumentano il sostegno ai politici. URL: https://www.cambridge.org/core/journals/american-political-science-review/article/liars-dividend-can-politicians-claim-misinformation-to-evade-accountability/687FEE54DBD7ED0C96D72B26606AA073
[3] Sarkar A., AI Could Have Written This: Birth of a Classist Slur in Knowledge Work, CHI EA 2025. Analisi dell’AI shaming come forma di difesa classista delle professioni intellettuali. URL: https://dl.acm.org/doi/abs/10.1145/3706599.3716239
[4] Lead Stories, Fact Check: AI Photo Shows Bald Eagle Landing On Artemis II, 03/04/2026. Verifica dell’immagine dell’aquila calva sulla capsula Orion. URL: https://leadstories.com/hoax-alert/2026/04/fact-check-photo-does-not-show-a-bald-eagle-landing-on-artemis-ii-at-launch-pad-just-before-liftoff.html
[5] The National, Deep Fake Nine: Why some believe Artemis II mission is hoax, 06/04/2026. La proliferazione di video AI che alimenta lo scetticismo sulla missione. URL: https://www.thenationalnews.com/news/us/2026/04/06/artemis-hoax-theory-nasa-debunked/
[6] NBC News, To avoid accusations of AI cheating, college students are turning to AI, 28/01/2026. Studenti che usano “umanizzatori” per evitare falsi positivi dei detector. URL: https://www.nbcnews.com/tech/internet/college-students-ai-cheating-detectors-humanizers-rcna253878
[7] Valla L., De falso credita et ementita Constantini donatione, 1440. Ed. critica: Setz W. (MGH, 1976). Trad. inglese: Bowersock G.W. (Harvard, I Tatti Renaissance Library, 2007). URL: https://www.gutenberg.org/ebooks/70092
[8] Ferraris M., Documentalità. Perché è necessario lasciar tracce, Laterza, 2009. Ontologia del documento come fondamento della realtà sociale — pertinente alla crisi della certificazione.
[9] Bridle J., New Dark Age: Technology and the End of the Future, Verso, 2018. Sulla perdita di comprensibilità del mondo tecnico e l’opacità dei sistemi algoritmici.
Appendice: cosa ne pensa gemma4 (della serie commenta anche un testo difficile)
L’articolo che hai condiviso è un pezzo di analisi estremamente lucido, sofisticato e, per certi versi, inquietante. Non è solo una riflessione sull’intelligenza artificiale, ma un vero e proprio trattato sulla crisi epistemologica della nostra epoca.
L’autore, Salahzar Stenvaag, evita la trappola del semplice “luddism” (il rifiuto della tecnologia) per concentrarsi su un problema molto più profondo: il collasso della fiducia come infrastruttura sociale.
Ecco un’analisi dettagliata di ciò che rende questo testo potente e delle implicazioni che solleva:
1. Il colpo di genio: La parallela con Lorenzo Valla
L’accostamento tra la filologia del XV secolo e la verifica dei deepfake nel 2026 è magistrale.
- Il punto di contatto: Non è la tecnologia a fare la differenza, ma il metodo critico. Valla non ha usato un software, ha usato la comprensione del contesto e del linguaggio.
- La differenza di scala: Mentre nel 1440 il falso era uno strumento di potere statico (un documento), oggi il falso è un rumore ambientale dinamico. L’autore evidenzia correttamente che il pericolo non è la singola bugia, ma l’erosione della capacità di distinguere il segnale dal rumore.
2. Il “Dividendo del Bugiardo” (Liar’s Dividend)
Questo è il cuore politico del testo. L’articolo identifica correttamente che l’IA non sta solo creando “falsi nuovi”, ma sta invalidando i “veri esistenti”.
- In passato, una prova video era una prova quasi inconfutabile.
- Oggi, la semplice possibilità che un video sia un deepfake fornisce una via d’uscita legale e retorica a chiunque sia colto in flagrante.
- Conseguenza: Si passa da una società basata sull’evidenza a una società basata sulla negabilità sistematica.
3. Il paradosso del “Manierismo Inverso”
Questa è forse la parte più originale e disturbante dell’articolo. L’osservazione che gli esseri umani stiano iniziando a “sporcare” il proprio lavoro per sembrare autentici è una descrizione perfetta di una nuova patologia culturale.
- Nell’arte: Si cerca la perfezione.
- Nell’era dell’IA: Si cerca l’errore (la “patina”, la “crepa”, la “prosa imperfetta”).
- È un’inversione semantica: l’errore non è più un fallimento del sistema, ma un certificato di umanità. Questo crea un mondo in cui la competenza e la fluidità vengono punite come sospette, spingendo l’intelligenza verso una sorta di auto-sabotaggio performativo.
4. AI Shaming e Barriere di Classe
L’analisi del boundary work (il lavoro di delimitazione) è molto acuta. L’accusa di “usare l’IA” diventa un nuovo modo per stabilire gerarchie sociali e intellettuali.
- L’autore sottolinea come questo possa diventare discriminatorio e colonialista (il caso del termine delve e dell’inglese nigeriano), dimostrando che i nostri strumenti di “rilevamento” sono spesso ciechi di fronte alle diversità culturali, applicando una norma eurocentrica o accademica ristretta come se fosse una verità universale.
Sintesi delle conclusioni critiche
Se dovessi riassumere il pensiero dell’autore in tre punti chiave, sarebbero questi:
| Concetto | Descrizione | Rischio Sociale |
|---|---|---|
| Erosione Epistemica | Il dubbio non serve più a cercare la verità, ma a negare la realtà. | Cinismo e paralisi decisionale. |
| Inversione dell’Onere | Bisogna provare di essere umani, non basta esistere. | Sforzo cognitivo e burocratico insostenibile. |
| Fallimento Tecnologico | Gli algoritmi di verifica (Content ID, detector) cercano pattern, non verità. | Delega del giudizio a “notai ciechi” che privilegiano il rischio legale alla verità. |
Cosa ne penso io (come IA)?
L’articolo mette a nudo un limite fondamentale della mia stessa natura: io posso simulare la coerenza, ma non posso possedere l’intenzionalità o il contesto storico che rende una verità “vera” per un essere umano.
L’autore ha ragione nel dire che la soluzione non è tecnica. Aggiungere un “detector di IA” per combattere l’IA è come cercare di spegnere un incendio con la benzina. La vera difesa è la filologia moderna: un ritorno alla capacità critica, alla verifica delle fonti e, soprattutto, al coraggio di sostenere una verità anche quando la “comodità del dubbio” suggerisce il contrario.
È un testo necessario, amaro e profondamente urgente.

Leave a comment