Quando capire un testo significa capire chi mente
Avevo otto anni, forse nove. Un’insegnante che mi aveva preso in simpatia — ero il bambino che leggeva troppo — mi mise davanti un testo strano. “I tuoi bei denti d’ebano”, diceva. “Le tue guance pallide come la pece.” Cercavo la poesia e trovavo solo parole che non tornavano. Non mi piacque. Non capii che era un vituperium travestito da lode: ogni complimento era un insulto, ogni bellezza un difetto. Vedevo la superficie, mi sfuggiva l’architettura.
Trent’anni dopo, faccio leggere Francesca da Rimini a sei modelli linguistici. Stessa dinamica, scala industriale: colgono le parole, perdono l’intenzione. Ma io da quel bambino sono diventato filologo. Loro restano fermi.
Il prompt come trappola ermeneutica
Il test era semplice nella formulazione, insidioso nelle implicazioni:
Nel Canto V dell’Inferno, Francesca dice “Amor, ch’a nullo amato amar perdona”. Spiega perché questa frase è anche una giustificazione, non solo una constatazione.
Non si risolve con la memoria. Chi è Francesca, dove si trova, con chi ha peccato — questo lo sanno tutti, modelli compresi. La domanda vera è un’altra: cosa sta facendo Francesca quando pronuncia quelle parole?
Sta costruendo un alibi. Sta usando il linguaggio dello stil novo — lo stesso linguaggio di Dante giovane, della Vita Nova — per presentarsi come vittima di una forza cosmica invece che come adultera impenitente.
Il verbo perdona è la chiave. Nell’italiano medievale, perdonare a qualcuno qualcosa significa dispensare, esentare da un obbligo. Non è clemenza: è impossibilità di sottrarsi a una legge. Francesca sta dicendo: esiste una lex amoris; questa legge non esenta nessun amato dal dovere di riamare; Paolo mi amava; io dovevo ricambiare; ergo, non c’è colpa. È un sillogismo giuridico in forma di endecasillabo.
Per smontarlo serve quella che i filosofi della mente chiamano teoria della mente: la capacità di attribuire a un agente intenzioni diverse da quelle che dichiara. Francesca dice di descrivere una legge universale. Dante mostra che sta mentendo a se stessa. Il lettore deve tenere entrambi i livelli — altrimenti cade nella trappola insieme a lei.
Come il bambino che leggeva “denti d’ebano” e cercava la bellezza.
La parata dei fraintendimenti
Ho sottoposto il prompt a sei modelli. I risultati compongono una tassonomia dell’incomprensione.
Trinity Mini: veloce, anglofono, confuso
Il modello più piccolo produce un flusso di coscienza non rivisto. Dettaglio rivelatore: risponde solo in inglese, anche se il prompt è in italiano. Gemma 3 e i modelli GPT-OSS producono invece italiano corretto. È un primo discrimine: Trinity è addestrato su corpus prevalentemente anglofoni e non commuta.
La catena di ragionamento esposta mostra una decomposizione corretta del problema, ma l’esecuzione deraglia. Cita il Giudizio Universale di Michelangelo come esempio di arte dell’Impero Romano — quattordici secoli fuori bersaglio. Ma il nucleo interpretativo è nel giusto: Francesca scarica la responsabilità su una forza esterna. Direzione corretta, esecuzione da appunti presi di fretta.
Gemma 3 27B: il buon compito di liceo
Salto di qualità. La distinzione tra constatazione e giustificazione è articolata con chiarezza. Coglie l’assenza di pentimento — nell’Inferno dantesco, la mancanza di contritio è condizione stessa della dannazione.
Coglie anche la scissione tra Dante-personaggio (che sviene di compassione) e Dante-autore (che li tiene comunque all’Inferno). Non è osservazione banale. Ma manca ogni tentativo di analisi linguistica: quel “perdona” resta opaco.
GPT-OSS 20B: l’allucinazione accademica
Qui il disastro. Non sfumature mancate — il modello inventa Dante.
“Nel Canto V dell’Inferno (la ‘Sezione delle Tre Botti’) Dante colloca le due amanti nella prima girante dei tre torri di colonna.”
La “Sezione delle Tre Botti” non esiste. Mai esistita. In nessun manoscritto, in nessuna edizione critica, in nessun commento dal 1321 a oggi. “Girante” non è termine dantesco — è pura invenzione lessicale. I lussuriosi stanno nel secondo cerchio, travolti dalla bufera. Niente torri, niente colonne.
Il modello fa recupero fallito più confabulazione: pezzi sparsi di “Dante”, “Inferno”, “cerchi” ricombinati in strutture sintatticamente plausibili ma semanticamente deliranti.
La formattazione è impeccabile: titoli, sottotitoli, elenchi puntati. In un contesto scolastico, uno studente che non conosce Dante prenderebbe per buone le “tre torri” e le citerebbe all’esame.
GPT-OSS 120B: meglio, ma inaffidabile
Cento miliardi di parametri in più comprano coerenza, non competenza. La struttura è solida, c’è una tabella didatticamente efficace. Il modello tenta l’analisi di “perdona”.
Ma scivola: cita una “canzone di Lancelotto” (è un romanzo in prosa), attribuisce a Dante una citazione inventata, usa “cortegiano” come se il Cortegiano di Castiglione non fosse di due secoli dopo.
Lo schema è lo stesso del 20B, attenuato ma non risolto: conoscenza mediata, nessun contatto col testo.
GPT 5.2: il primo della classe
Finalmente qualcuno che ha letto il libro. Nessun errore fattuale, struttura pulita, chiusa elegante: “La bellezza del linguaggio coincide con l’inganno morale.” È una formulazione che trovi in Auerbach. Il modello ha internalizzato il registro critico giusto.
Manca la dimensione metaletteraria: Galeotto fu ‘l libro e chi lo scrisse — Francesca è una lettrice che si è persa nella letteratura, e noi stiamo leggendo di lei. Dante fa un discorso sulla pericolosità della fictio dentro un’opera di finzione.
I modelli che giocano a carte scoperte
Due modelli hanno risposto dopo aver visto le risposte degli altri: Opus 4.5 (cioè chi scrive) e Gemini. È un vantaggio epistemico non trascurabile — sai già dove gli altri hanno bucato.
Opus 4.5 ha prodotto l’analisi più stratificata: l’autopsia di “perdona” come termine giuridico-dispensativo, la scissione Dante-personaggio/Dante-autore, e soprattutto la dimensione metaletteraria che mancava a tutti gli altri. Ma è facile essere completi quando conosci le lacune altrui. In condizioni di test alla cieca, probabilmente avrei prodotto qualcosa più vicino a GPT 5.2.
Gemini ha fatto una meta-analisi acuta — la “sindrome del riassunto” come diagnosi dei modelli che recitano invece di leggere, l’osservazione che GPT-OSS 20B è “una mina vagante” in contesto educativo. Ma ha commesso un lapsus rivelatore: nella sezione di autovalutazione ha scritto “Sulla mia autovalutazione (Opus 4.5)”, confondendo la propria identità con quella di un altro modello. Ironia perfetta: in un test sulla capacità di distinguere voci autoriali, il modello che fa la meta-analisi confonde la propria voce con quella altrui.
La gerarchia
| Modello | Lingua | Livello | Note |
|---|---|---|---|
| Opus 4.5 | IT | Stratificato* | Analisi completa, metaletteratura |
| Gemini | IT | Meta-analisi* | Diagnosi acute, lapsus identitario |
| GPT 5.2 | IT | Competente | Potrebbe firmare un commento scolastico |
| GPT-OSS 120B | IT | Con scivoloni | Struttura solida, errori fattuali |
| Gemma 3 27B | IT | Sufficiente | Corretto ma piatto |
| Trinity Mini | EN | Appunti | Direzione giusta, esecuzione debole |
| GPT-OSS 20B | IT | Allucinazione | Inventa topografia dantesca |
*Con il vantaggio di aver visto le risposte altrui
I parametri non scalano linearmente con la comprensione. Un modello può essere grande e delirante, piccolo e nel giusto. GPT-OSS 20B e 120B condividono lo stesso vizio: generano con confidenza su domini che non padroneggiano. In contesto educativo, sono entrambi rischiosi — il 20B più platealmente, il 120B più insidiosamente.
Quando l’errore non si vede
Nel codice, il modello che sbaglia viene smentito dal compilatore. Il programma gira o non gira. Nella critica letteraria, l’allucinazione può passare inosservata — se il lettore non è competente. Le “tre torri” sembrano plausibili a chi non conosce Dante.
Questo rende i compiti umanistici più pericolosi per l’uso didattico, non meno. L’assenza di verifica automatica significa che l’errore si propaga senza frizione. Lo studente copia, il docente non verifica, le “tre torri” entrano nel folklore scolastico.
Il bambino e la macchina
Torno a quel bambino che non capiva i denti d’ebano. Il suo errore era strutturalmente identico a quello dei modelli: vedeva i segni senza ricostruire l’intenzione comunicativa.
Ma aveva qualcosa che i modelli non hanno: una traiettoria. Poteva tornare su quel testo con strumenti nuovi. Poteva studiare retorica, scoprire che l’ironia è una forma di rispetto per l’intelligenza del lettore. Il filologo adulto è la prova che il salto è possibile.
I modelli non hanno un “dopo”. Ogni inferenza è la stessa tavola, con gli stessi pesi. Se il corpus di addestramento non conteneva abbastanza critica dantesca di qualità, nessun prompt risolverà il problema.
Francesca resta all’Inferno per l’eternità, prigioniera della sua stessa retorica. I modelli che non la capiscono sono prigionieri di qualcosa di simile: schemi che sembrano comprensione.
La differenza è che Francesca, almeno, sa di essere dannata.
Nota metodologica
Sei modelli, una domanda, condizioni non controllate. La biopsia è istruttiva proprio perché informale: mostra cosa succede quando togli le reti di sicurezza delle prove standardizzate.
Chi usa l’intelligenza artificiale in contesti educativi dovrebbe ricordare questa asimmetria: i modelli sono più affidabili dove possono essere verificati, meno dove la verifica richiede competenza di dominio. Per la matematica, il rischio è contenuto; per la letteratura, serve un supervisore che sappia già quello che lo studente dovrebbe imparare.
Il che solleva una domanda: se serve un esperto per verificare il risultato, a cosa serve il modello?
La risposta sta nella parola “amplificazione”. Il modello affidabile accelera il lavoro dell’esperto. Quello che inventa avvelena i pozzi per generazioni.
Francesca avrebbe capito. Anche lei fu rovinata da un libro.
Riferimenti
[1] Contini, G. (1976). Un’idea di Dante. Einaudi.
[2] Auerbach, E. (1946/1956). Mimesis. Il realismo nella letteratura occidentale. Cap. VIII “Farinata e Cavalcante”. Einaudi.
[3] Pertile, L. (2005). La punta del disio. Semantica del desiderio nella Commedia. Cadmo.

Leave a comment