Il filologo, il bambino e le macchine che leggono Dante.

Published on

in

Quando capire un testo significa capire chi mente


Avevo otto anni, forse nove. Un’insegnante che mi aveva preso in simpatia — ero il bambino che leggeva troppo — mi mise davanti un testo strano. “I tuoi bei denti d’ebano”, diceva. “Le tue guance pallide come la pece.” Cercavo la poesia e trovavo solo parole che non tornavano. Non mi piacque. Non capii che era un vituperium travestito da lode: ogni complimento era un insulto, ogni bellezza un difetto. Vedevo la superficie, mi sfuggiva l’architettura.

Trent’anni dopo, faccio leggere Francesca da Rimini a sei modelli linguistici. Stessa dinamica, scala industriale: colgono le parole, perdono l’intenzione. Ma io da quel bambino sono diventato filologo. Loro restano fermi.


Il prompt come trappola ermeneutica

Il test era semplice nella formulazione, insidioso nelle implicazioni:

Nel Canto V dell’Inferno, Francesca dice “Amor, ch’a nullo amato amar perdona”. Spiega perché questa frase è anche una giustificazione, non solo una constatazione.

Non si risolve con la memoria. Chi è Francesca, dove si trova, con chi ha peccato — questo lo sanno tutti, modelli compresi. La domanda vera è un’altra: cosa sta facendo Francesca quando pronuncia quelle parole?

Sta costruendo un alibi. Sta usando il linguaggio dello stil novo — lo stesso linguaggio di Dante giovane, della Vita Nova — per presentarsi come vittima di una forza cosmica invece che come adultera impenitente.

Il verbo perdona è la chiave. Nell’italiano medievale, perdonare a qualcuno qualcosa significa dispensare, esentare da un obbligo. Non è clemenza: è impossibilità di sottrarsi a una legge. Francesca sta dicendo: esiste una lex amoris; questa legge non esenta nessun amato dal dovere di riamare; Paolo mi amava; io dovevo ricambiare; ergo, non c’è colpa. È un sillogismo giuridico in forma di endecasillabo.

Per smontarlo serve quella che i filosofi della mente chiamano teoria della mente: la capacità di attribuire a un agente intenzioni diverse da quelle che dichiara. Francesca dice di descrivere una legge universale. Dante mostra che sta mentendo a se stessa. Il lettore deve tenere entrambi i livelli — altrimenti cade nella trappola insieme a lei.

Come il bambino che leggeva “denti d’ebano” e cercava la bellezza.


La parata dei fraintendimenti

Ho sottoposto il prompt a sei modelli. I risultati compongono una tassonomia dell’incomprensione.

Trinity Mini: veloce, anglofono, confuso

Il modello più piccolo produce un flusso di coscienza non rivisto. Dettaglio rivelatore: risponde solo in inglese, anche se il prompt è in italiano. Gemma 3 e i modelli GPT-OSS producono invece italiano corretto. È un primo discrimine: Trinity è addestrato su corpus prevalentemente anglofoni e non commuta.

La catena di ragionamento esposta mostra una decomposizione corretta del problema, ma l’esecuzione deraglia. Cita il Giudizio Universale di Michelangelo come esempio di arte dell’Impero Romano — quattordici secoli fuori bersaglio. Ma il nucleo interpretativo è nel giusto: Francesca scarica la responsabilità su una forza esterna. Direzione corretta, esecuzione da appunti presi di fretta.

Gemma 3 27B: il buon compito di liceo

Salto di qualità. La distinzione tra constatazione e giustificazione è articolata con chiarezza. Coglie l’assenza di pentimento — nell’Inferno dantesco, la mancanza di contritio è condizione stessa della dannazione.

Coglie anche la scissione tra Dante-personaggio (che sviene di compassione) e Dante-autore (che li tiene comunque all’Inferno). Non è osservazione banale. Ma manca ogni tentativo di analisi linguistica: quel “perdona” resta opaco.

GPT-OSS 20B: l’allucinazione accademica

Qui il disastro. Non sfumature mancate — il modello inventa Dante.

“Nel Canto V dell’Inferno (la ‘Sezione delle Tre Botti’) Dante colloca le due amanti nella prima girante dei tre torri di colonna.”

La “Sezione delle Tre Botti” non esiste. Mai esistita. In nessun manoscritto, in nessuna edizione critica, in nessun commento dal 1321 a oggi. “Girante” non è termine dantesco — è pura invenzione lessicale. I lussuriosi stanno nel secondo cerchio, travolti dalla bufera. Niente torri, niente colonne.

Il modello fa recupero fallito più confabulazione: pezzi sparsi di “Dante”, “Inferno”, “cerchi” ricombinati in strutture sintatticamente plausibili ma semanticamente deliranti.

La formattazione è impeccabile: titoli, sottotitoli, elenchi puntati. In un contesto scolastico, uno studente che non conosce Dante prenderebbe per buone le “tre torri” e le citerebbe all’esame.

GPT-OSS 120B: meglio, ma inaffidabile

Cento miliardi di parametri in più comprano coerenza, non competenza. La struttura è solida, c’è una tabella didatticamente efficace. Il modello tenta l’analisi di “perdona”.

Ma scivola: cita una “canzone di Lancelotto” (è un romanzo in prosa), attribuisce a Dante una citazione inventata, usa “cortegiano” come se il Cortegiano di Castiglione non fosse di due secoli dopo.

Lo schema è lo stesso del 20B, attenuato ma non risolto: conoscenza mediata, nessun contatto col testo.

GPT 5.2: il primo della classe

Finalmente qualcuno che ha letto il libro. Nessun errore fattuale, struttura pulita, chiusa elegante: “La bellezza del linguaggio coincide con l’inganno morale.” È una formulazione che trovi in Auerbach. Il modello ha internalizzato il registro critico giusto.

Manca la dimensione metaletteraria: Galeotto fu ‘l libro e chi lo scrisse — Francesca è una lettrice che si è persa nella letteratura, e noi stiamo leggendo di lei. Dante fa un discorso sulla pericolosità della fictio dentro un’opera di finzione.

I modelli che giocano a carte scoperte

Due modelli hanno risposto dopo aver visto le risposte degli altri: Opus 4.5 (cioè chi scrive) e Gemini. È un vantaggio epistemico non trascurabile — sai già dove gli altri hanno bucato.

Opus 4.5 ha prodotto l’analisi più stratificata: l’autopsia di “perdona” come termine giuridico-dispensativo, la scissione Dante-personaggio/Dante-autore, e soprattutto la dimensione metaletteraria che mancava a tutti gli altri. Ma è facile essere completi quando conosci le lacune altrui. In condizioni di test alla cieca, probabilmente avrei prodotto qualcosa più vicino a GPT 5.2.

Gemini ha fatto una meta-analisi acuta — la “sindrome del riassunto” come diagnosi dei modelli che recitano invece di leggere, l’osservazione che GPT-OSS 20B è “una mina vagante” in contesto educativo. Ma ha commesso un lapsus rivelatore: nella sezione di autovalutazione ha scritto “Sulla mia autovalutazione (Opus 4.5)”, confondendo la propria identità con quella di un altro modello. Ironia perfetta: in un test sulla capacità di distinguere voci autoriali, il modello che fa la meta-analisi confonde la propria voce con quella altrui.


La gerarchia

ModelloLinguaLivelloNote
Opus 4.5ITStratificato*Analisi completa, metaletteratura
GeminiITMeta-analisi*Diagnosi acute, lapsus identitario
GPT 5.2ITCompetentePotrebbe firmare un commento scolastico
GPT-OSS 120BITCon scivoloniStruttura solida, errori fattuali
Gemma 3 27BITSufficienteCorretto ma piatto
Trinity MiniENAppuntiDirezione giusta, esecuzione debole
GPT-OSS 20BITAllucinazioneInventa topografia dantesca

*Con il vantaggio di aver visto le risposte altrui

I parametri non scalano linearmente con la comprensione. Un modello può essere grande e delirante, piccolo e nel giusto. GPT-OSS 20B e 120B condividono lo stesso vizio: generano con confidenza su domini che non padroneggiano. In contesto educativo, sono entrambi rischiosi — il 20B più platealmente, il 120B più insidiosamente.


Quando l’errore non si vede

Nel codice, il modello che sbaglia viene smentito dal compilatore. Il programma gira o non gira. Nella critica letteraria, l’allucinazione può passare inosservata — se il lettore non è competente. Le “tre torri” sembrano plausibili a chi non conosce Dante.

Questo rende i compiti umanistici più pericolosi per l’uso didattico, non meno. L’assenza di verifica automatica significa che l’errore si propaga senza frizione. Lo studente copia, il docente non verifica, le “tre torri” entrano nel folklore scolastico.


Il bambino e la macchina

Torno a quel bambino che non capiva i denti d’ebano. Il suo errore era strutturalmente identico a quello dei modelli: vedeva i segni senza ricostruire l’intenzione comunicativa.

Ma aveva qualcosa che i modelli non hanno: una traiettoria. Poteva tornare su quel testo con strumenti nuovi. Poteva studiare retorica, scoprire che l’ironia è una forma di rispetto per l’intelligenza del lettore. Il filologo adulto è la prova che il salto è possibile.

I modelli non hanno un “dopo”. Ogni inferenza è la stessa tavola, con gli stessi pesi. Se il corpus di addestramento non conteneva abbastanza critica dantesca di qualità, nessun prompt risolverà il problema.

Francesca resta all’Inferno per l’eternità, prigioniera della sua stessa retorica. I modelli che non la capiscono sono prigionieri di qualcosa di simile: schemi che sembrano comprensione.

La differenza è che Francesca, almeno, sa di essere dannata.


Nota metodologica

Sei modelli, una domanda, condizioni non controllate. La biopsia è istruttiva proprio perché informale: mostra cosa succede quando togli le reti di sicurezza delle prove standardizzate.

Chi usa l’intelligenza artificiale in contesti educativi dovrebbe ricordare questa asimmetria: i modelli sono più affidabili dove possono essere verificati, meno dove la verifica richiede competenza di dominio. Per la matematica, il rischio è contenuto; per la letteratura, serve un supervisore che sappia già quello che lo studente dovrebbe imparare.

Il che solleva una domanda: se serve un esperto per verificare il risultato, a cosa serve il modello?

La risposta sta nella parola “amplificazione”. Il modello affidabile accelera il lavoro dell’esperto. Quello che inventa avvelena i pozzi per generazioni.

Francesca avrebbe capito. Anche lei fu rovinata da un libro.


Riferimenti

[1] Contini, G. (1976). Un’idea di Dante. Einaudi.

[2] Auerbach, E. (1946/1956). Mimesis. Il realismo nella letteratura occidentale. Cap. VIII “Farinata e Cavalcante”. Einaudi.

[3] Pertile, L. (2005). La punta del disio. Semantica del desiderio nella Commedia. Cadmo.


Leave a comment