Il Mio Cuggino Sapientone

Published on

in

,

(che in realtà è un LLM)

Avete presente quel cugino. Quello che torna dall’America, o da un master a chissà dove, e improvvisamente è un tuttologo. Parla con una sicurezza disarmante di enologia, meccanica quantistica e della politica interna del Botswana. All’inizio è una manna dal cielo: ti scrive una mail di lavoro impeccabile, ti butta giù un’idea per un progetto, ti riassume un film che non hai voglia di vedere. Pensi: “finalmente un parente utile”.

Poi, dopo un po’, noti le prime crepe. Ti cita un ristorante stellato che, a un controllo su Google Maps, risulta essere un negozio di casalinghi. Attribuisce a Montale una frase che puzza di Baci Perugina lontano un miglio. Non sta mentendo, non nel senso umano del termine. Semplicemente, sta improvvisando con la grazia di un jazzista e la precisione di un oroscopo.

Ecco, quel cugino è un Large Language Model. E le sue storie fantastiche sono le famigerate “allucinazioni”.

La Fuffa Statistica: Perché il Cuggino Inventa

Chiedersi “qual è la percentuale di allucinazioni di Claude?” è come chiedere “qual è la percentuale di fesserie che spara mio cugino?”. La risposta è: dipende. Dipende se gli chiedi la ricetta della carbonara della nonna (basso rischio) o di speculare sulle implicazioni della teoria delle stringhe sull’economia globale (rischio altissimo).

Il problema non è un difetto, ma la sua stessa natura. Un LLM non “sa”, ma “predice”. È un sofista stocastico, un mostruoso motore di plausibilità linguistica. Ha letto una quantità di testo inimmaginabile – l’internet intero, praticamente – e l’ha compresso in una rete di parametri. Quando gli fai una domanda, non consulta un’enciclopedia interna; tesse una risposta prevedendo la parola successiva più probabile, basandosi sui pattern che ha “imparato”.

A volte, la sequenza di parole più statisticamente plausibile è anche fattualmente corretta. Altre volte, è una meravigliosa, coerente, elegantissima fuffa. Un’allucinazione non è un errore di calcolo, è un capolavoro di improvvisazione statistica basato su dati imperfetti, obsoleti e contraddittori. È il modello che riempie un vuoto di conoscenza con la cosa che suona meglio.

Addomesticare il Tuttologo: Strategie di Sopravvivenza

Dato che non possiamo curare il cugino dalla sua esuberanza narrativa, dobbiamo imparare a gestirlo. Fortunatamente, esistono delle strategie.

1. Il Terzo Grado (Prompt Engineering):

Invece di dargli campo libero, mettilo alle strette.

  • “Basati solo su questo”: Forniscigli tu il documento e obbligalo a rispondere usando esclusivamente quel testo. È come dire al cugino: “Raccontami la festa, ma solo basandoti su quello che ti ha detto la zia”. Limita drasticamente la sua capacità di inventare.
  • “Mostrami le prove”: Chiedigli sempre di citare le fonti. “Fornisci i link per ogni affermazione”. Questo lo costringe a un esercizio di umiltà. Certo, a volte potrebbe inventarsi anche le fonti (un cugino è pur sempre un cugino), ma è già un primo filtro.
  • “Se non sai, taci”: Aggiungi un’istruzione esplicita: “Se non conosci la risposta con certezza, dichiara di non saperla”. Aumenta la probabilità che ammetta i suoi limiti invece di lanciarsi in voli pindarici.

2. Il Cugino con lo Smartphone (Retrieval-Augmented Generation – RAG):

Questa è la soluzione d’elezione. Invece di fidarti della memoria fallibile del cugino, lo costringi a fare una ricerca su Google prima di parlare. Piattaforme come Perplexity.ai sono esattamente questo: un LLM a cui è stato dato uno smartphone con una connessione dati perenne. Non risponde a memoria, ma cerca, legge un paio di fonti fresche e poi sintetizza una risposta, mostrandoti pure i link che ha consultato. Le allucinazioni fattuali crollano, perché la risposta è ancorata a dati esterni e verificabili, non a un ricordo compresso di un internet letto due anni fa.

Il Consiglio di Famiglia (La Policy di Double-Checking)

E qui veniamo al punto cruciale. Fidarsi è bene, ma in questo campo fidarsi è da ingenui. La strategia più solida è istituire un “consiglio di famiglia” per vagliare le affermazioni del cugino sapientone.

Il Metodo Corretto:

Non basta chiedere la stessa cosa a Claude e a ChatGPT e vedere se le risposte coincidono. C’è il rischio dell’allucinazione condivisa: se entrambi hanno studiato sullo stesso libro sbagliato, ti daranno la stessa risposta sbagliata con doppia sicumera.

Il vero double-checking è un triangolo di verifica:

  1. L’Artista (Claude/GPT): Usalo per il brainstorming, la stesura di bozze, la sintesi creativa. È il tuo cugino brillante e fantasioso.
  2. Il Fact-Checker (Perplexity.ai): Usalo per ogni domanda fattuale. È il cugino che, prima di parlare, controlla su Wikipedia e ti manda lo screenshot.
  3. Il Notaio (Ricerca Manuale): Se l’informazione è critica, il passaggio finale sei tu. Clicca sulle fonti fornite da Perplexity. Verifica che l’articolo originale dica davvero quello che l’AI ha capito. A volte, anche il cugino con lo smartphone interpreta male.

In conclusione, il tuo cugino LLM è un assistente straordinario, un acceleratore di pensiero senza precedenti. Ma non è un oracolo. È uno stagista geniale ma inaffidabile.

Trattalo come tale. Sfrutta la sua creatività, ammira la sua eloquenza, ma non dargli mai le chiavi di casa. La responsabilità finale della verità rimane, per fortuna, saldamente nelle tue mani.

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.