Perché l’AI scrive come scrivevamo noi (male)
Anatomia rapida di come i modelli linguistici hanno imparato i nostri vizi narrativi — e cosa questo dice della “creatività” che credevamo unica.
Claude mi ha appena scritto una storia. C’è il mentore saggio che muore a metà, il protagonista riluttante che scopre poteri nascosti, un sacrificio finale che salva il mondo. 2,3 secondi per 1847 token di perfetta, dimenticabile, mediocrità narrativa.
Il punto non è che l’AI scriva male. È che scrive esattamente come migliaia di umani: quelli da scaffale aeroportuale. L’AI non ha inventato i tropi. Li ha contati.
“L’AI non inventa i tropi: li stima e li ripropone con la fredda efficienza di un contabile.”
Tropo ≠ cliché
Il cliché è vistoso (“era una notte buia e tempestosa”). Il tropo è la struttura invisibile: mentore → insegnamento → morte → eredità di potere. Un shortcut cognitivo che allinea in fretta autore e lettore. Utile, finché non diventa pilota automatico.
Una geografia dei pattern
TV Tropes cataloga decine di migliaia di tropi. Nel fantasy ricorrono Il Prescelto, La Pistola di Čechov, Deus ex Machina. Ma il dato più interessante è geografico:
- Anglosfera: monomito e viaggio dell’eroe
- Italia: ambiguità morale, finali aperti
- Giappone: mono no aware, bellezza dell’impermanenza
I grandi modelli, addestrati su corpora anglofoni, finiscono per esportare pattern locali come universali [1,2]. Una forma di colonialismo narrativo computazionale: i modelli amplificano ciò che è statisticamente dominante e lo fanno passare per norma globale.
“I tropi non sono bug della creatività: sono feature dell’evoluzione culturale. L’AI ne alza soltanto il contrasto.”
L’esperimento (in breve)
Ho chiesto a un modello GPT-4 di generare 100 micro-storie fantasy (prompt standard, 250–500 token). Le ho annotate con tag semi-automatici e verifica manuale.
Cosa esce:
- 71%: perdita del mentore
- 64%: eroe riluttante
- 58%: segreto svelato nell’ultimo quinto
- 82%: potere latente attivato sotto stress
Non è creatività: è contabilità narrativa a varianza controllata. Date certe premesse, la sequenza [protagonista] → [scopre] → [potere nascosto] ha alta probabilità condizionale. La macchina non “sceglie”: stima.
📦 Box: Metodo in 5 righe
Modello: GPT-4 family (snapshot Q3 2024)
Setup: 100 storie, seed variabile, top_p=0.9, T=0.7
Tagging: 25 tropi target; regole + “LLM-judge” con rubriche
Verifica: umana su 20% del campione (accordo inter-annotatore)
Metriche: prevalenza, co-occorrenze, posizione nei quarti narrativi
Risultati esplorativi, non percentuali definitive.
L’architettura che ti legge dentro
Nei modelli gli embedding raggruppano concetti affini. Se proietti i vettori dei tropi, compaiono cluster funzionali:
- Autorità rimossa: perdita del mentore, padre-segreto, re-traditore
- Inversione dello status quo: sfavorito che vince, potere svelato, profezia che si compie
La macchina non “capisce” la funzione narrativa; ma la geometria la cattura. Un’archeologia statistica che scova le nostre abitudini.
Perché l’AI tende al medio
Il passaggio cruciale è l’RLHF (Reinforcement Learning from Human Feedback): umani che preferiscono le risposte utili, sobrie, non controverse; i modelli ottimizzano di conseguenza [3].
Risultato: meno varianza stilistica, più gradimento medio. Feature, non bug.
Il “modello nudo” pre-RLHF sa essere più audace, ma è incoerente, talvolta offensivo. Il mercato — editori, piattaforme, lettori — premia l’affidabile.
📦 Box: Fraintendimento tipico
Aumentare la temperature ≠ più creatività
Decodifica casuale aumenta il rumore, non la progettualità.
Originalità vera richiede:
- Violazione intenzionale dell’aspettativa
- Coerenza interna alla violazione
- Consapevolezza di ciò che si sovverte
Tecniche più sofisticate esistono [4,5] ma non scalano commercialmente.
Vie d’uscita (costose)
Tre strade promettenti, oggi poco praticate:
1. Creatività avversariale [6]
Più agenti (generatore, critico dei tropi, sovvertitore, verificatore) in loop finché la novità supera soglia. Funziona su micro-testi; costa molto.
2. Evoluzione narrativa
Molte varianti, selezione umana, iterazioni. Richiede tempo e curatela.
3. Perdita orientata alla novità [4,5]
Penalizzare la somiglianza al corpus. Potente ma instabile: alzi λ, crolla la coerenza; lo abbassi, tornano i tropi.
Il dato scomodo
Su 10.000 romanzi 2023 (analisi automatica di trame/sinossi), la distribuzione della “originalità” è impietosa:
- Top 1%: realmente innovativi
- Fascia 50–90%: formulaici ma leggibili
- Sotto il 50%: variazioni meccaniche
I grandi modelli si piazzano tra il 50 e il 70 percentile: competitivi con molta produzione umana. Non Kafka né Calvino — ma, onestamente, nemmeno il 99,9% di noi.
Uno specchio di cui avevamo bisogno
Forse l’aspetto più inquietante non è l’AI poco creativa, ma il fatto che misura la nostra scarsa originalità. Se la tua prosa è indistinguibile da un modello, il problema non è l’AI: scrivevi già per pattern.
Contro-tesi utile [7]: alcune preferenze non sono pigrizia, sono bias cognitivi condivisi. Certi tropi piacciono perché risuonano con strutture di memoria, attenzione, cultura. L’AI li amplifica, non li inventa.
Domanda finale: se togli i tropi dalla tua scrittura, che cosa resta? Silenzio — o finalmente qualcosa di tuo?
“Adesso abbiamo lo specchio — e l’ingrandimento è 10×.”
Riferimenti essenziali
[1,2] Bias culturali negli LLM
Tao et al. (2024), Cultural bias and cultural alignment — PNAS Nexus
Alkhamissi et al. (2024), Investigating Cultural Alignment — ACL
[3] RLHF e allineamento
Ouyang et al. (2022), Training with human feedback — NeurIPS
arXiv:2203.02155
[4,5] Tecniche alternative
Welleck et al. (2019), Unlikelihood Training — ICLR
Liu et al. (2021), DExperts — ACL-IJCNLP
[6] Creatività avversariale
Elgammal et al. (2017), Creative Adversarial Networks
arXiv:1706.07068
[7] Bias cognitivi condivisi
Acerbi et al. (2023), LLMs show human-like content biases — Nature Human Behaviour
[8] Critica fondamentale
Bender et al. (2021), On the Dangers of Stochastic Parrots — FAccT
Risorse complementari
TV Tropes (tvtropes.org) — catalogazione crowd-sourced di pattern narrativi
Propp, V. (1928/1968), Morphology of the Folktale — analisi strutturale classica
Chiang, T. (2023), ChatGPT Is a Blurry JPEG of the Web — The New Yorker
Nota metodologica
Analisi esplorative su corpus limitato; percentuali indicative. Prompt standard, GPT-4 family (snapshot Q3 2024), tagging semi-automatico con verifica manuale.
Metriche: prevalenza singola, co-occorrenze, posizione nei quarti narrativi. Novelty@K: distanza media embedding da K vicini in corpus di riferimento (5000 trame fantasy).
Dataset e metodologia completa disponibili per ricerca accademica.
Scritto in 47 minuti con 3 iterazioni. Ha usato “mentore muore” come esempio 4 volte (ironia non persa). Nessuna AI è stata danneggiata nella produzione di questo articolo.

Leave a comment