(che in realtà è un LLM)
Avete presente quel cugino. Quello che torna dall’America, o da un master a chissà dove, e improvvisamente è un tuttologo. Parla con una sicurezza disarmante di enologia, meccanica quantistica e della politica interna del Botswana. All’inizio è una manna dal cielo: ti scrive una mail di lavoro impeccabile, ti butta giù un’idea per un progetto, ti riassume un film che non hai voglia di vedere. Pensi: “finalmente un parente utile”.
Poi, dopo un po’, noti le prime crepe. Ti cita un ristorante stellato che, a un controllo su Google Maps, risulta essere un negozio di casalinghi. Attribuisce a Montale una frase che puzza di Baci Perugina lontano un miglio. Non sta mentendo, non nel senso umano del termine. Semplicemente, sta improvvisando con la grazia di un jazzista e la precisione di un oroscopo.
Ecco, quel cugino è un Large Language Model. E le sue storie fantastiche sono le famigerate “allucinazioni”.
La Fuffa Statistica: Perché il Cuggino Inventa
Chiedersi “qual è la percentuale di allucinazioni di Claude?” è come chiedere “qual è la percentuale di fesserie che spara mio cugino?”. La risposta è: dipende. Dipende se gli chiedi la ricetta della carbonara della nonna (basso rischio) o di speculare sulle implicazioni della teoria delle stringhe sull’economia globale (rischio altissimo).
Il problema non è un difetto, ma la sua stessa natura. Un LLM non “sa”, ma “predice”. È un sofista stocastico, un mostruoso motore di plausibilità linguistica. Ha letto una quantità di testo inimmaginabile – l’internet intero, praticamente – e l’ha compresso in una rete di parametri. Quando gli fai una domanda, non consulta un’enciclopedia interna; tesse una risposta prevedendo la parola successiva più probabile, basandosi sui pattern che ha “imparato”.
A volte, la sequenza di parole più statisticamente plausibile è anche fattualmente corretta. Altre volte, è una meravigliosa, coerente, elegantissima fuffa. Un’allucinazione non è un errore di calcolo, è un capolavoro di improvvisazione statistica basato su dati imperfetti, obsoleti e contraddittori. È il modello che riempie un vuoto di conoscenza con la cosa che suona meglio.
Addomesticare il Tuttologo: Strategie di Sopravvivenza
Dato che non possiamo curare il cugino dalla sua esuberanza narrativa, dobbiamo imparare a gestirlo. Fortunatamente, esistono delle strategie.
1. Il Terzo Grado (Prompt Engineering):
Invece di dargli campo libero, mettilo alle strette.
- “Basati solo su questo”: Forniscigli tu il documento e obbligalo a rispondere usando esclusivamente quel testo. È come dire al cugino: “Raccontami la festa, ma solo basandoti su quello che ti ha detto la zia”. Limita drasticamente la sua capacità di inventare.
- “Mostrami le prove”: Chiedigli sempre di citare le fonti. “Fornisci i link per ogni affermazione”. Questo lo costringe a un esercizio di umiltà. Certo, a volte potrebbe inventarsi anche le fonti (un cugino è pur sempre un cugino), ma è già un primo filtro.
- “Se non sai, taci”: Aggiungi un’istruzione esplicita: “Se non conosci la risposta con certezza, dichiara di non saperla”. Aumenta la probabilità che ammetta i suoi limiti invece di lanciarsi in voli pindarici.
2. Il Cugino con lo Smartphone (Retrieval-Augmented Generation – RAG):
Questa è la soluzione d’elezione. Invece di fidarti della memoria fallibile del cugino, lo costringi a fare una ricerca su Google prima di parlare. Piattaforme come Perplexity.ai sono esattamente questo: un LLM a cui è stato dato uno smartphone con una connessione dati perenne. Non risponde a memoria, ma cerca, legge un paio di fonti fresche e poi sintetizza una risposta, mostrandoti pure i link che ha consultato. Le allucinazioni fattuali crollano, perché la risposta è ancorata a dati esterni e verificabili, non a un ricordo compresso di un internet letto due anni fa.
Il Consiglio di Famiglia (La Policy di Double-Checking)
E qui veniamo al punto cruciale. Fidarsi è bene, ma in questo campo fidarsi è da ingenui. La strategia più solida è istituire un “consiglio di famiglia” per vagliare le affermazioni del cugino sapientone.
Il Metodo Corretto:
Non basta chiedere la stessa cosa a Claude e a ChatGPT e vedere se le risposte coincidono. C’è il rischio dell’allucinazione condivisa: se entrambi hanno studiato sullo stesso libro sbagliato, ti daranno la stessa risposta sbagliata con doppia sicumera.
Il vero double-checking è un triangolo di verifica:
- L’Artista (Claude/GPT): Usalo per il brainstorming, la stesura di bozze, la sintesi creativa. È il tuo cugino brillante e fantasioso.
- Il Fact-Checker (Perplexity.ai): Usalo per ogni domanda fattuale. È il cugino che, prima di parlare, controlla su Wikipedia e ti manda lo screenshot.
- Il Notaio (Ricerca Manuale): Se l’informazione è critica, il passaggio finale sei tu. Clicca sulle fonti fornite da Perplexity. Verifica che l’articolo originale dica davvero quello che l’AI ha capito. A volte, anche il cugino con lo smartphone interpreta male.
In conclusione, il tuo cugino LLM è un assistente straordinario, un acceleratore di pensiero senza precedenti. Ma non è un oracolo. È uno stagista geniale ma inaffidabile.
Trattalo come tale. Sfrutta la sua creatività, ammira la sua eloquenza, ma non dargli mai le chiavi di casa. La responsabilità finale della verità rimane, per fortuna, saldamente nelle tue mani.

Leave a comment