Quando l’autoreferenzialità incontra il linguaggio naturale e perché (forse) Penrose aveva ragione sui limiti della computazione — e cosa significa per l’intelligenza artificiale
C’è un momento preciso nella storia della matematica in cui l’edificio comincia a scricchiolare. Non per un errore di calcolo, non per una dimostrazione sbagliata. Ma perché qualcuno — Bertrand Russell, per la precisione — si accorge che le fondamenta stesse contengono una crepa strutturale. Una crepa che non puoi riparare, perché è parte integrante dell’architettura.
Il paradosso di Russell del 1901 è semplice quanto devastante: considera l’insieme di tutti gli insiemi che non contengono sé stessi [1]. Questo insieme contiene sé stesso? Se sì, allora per definizione non dovrebbe contenersi. Se no, allora per definizione dovrebbe contenersi. È un loop perfetto, un cortocircuito logico che non ammette soluzioni.
La versione divulgativa è ancora più inquietante: in un villaggio c’è un barbiere che rade tutti e solo coloro che non si radono da soli [2]. Chi rade il barbiere? Se si rade da solo, non dovrebbe radersi (perché rade solo chi non si rade da sé). Se non si rade da solo, allora dovrebbe radersi (perché rade tutti quelli che non si radono da sé). Il barbiere è intrappolato in un paradosso logico da cui non può uscire.
Ma ecco il punto: questo non è un gioco di parole. È una proprietà intrinseca di qualsiasi sistema linguistico sufficientemente espressivo da parlare di sé stesso. E la matematica, che volevamo fosse il regno della logica pura, scopre di avere questo problema al cuore stesso della sua struttura.
La notizia ha un sapore particolare oggi, mentre l’industria tech investe centinaia di miliardi per costruire intelligenze artificiali sempre più “umane”. Perché c’è un argomento — controverso, dibattuto, mai risolto definitivamente — che dice: se nemmeno i sistemi formali più rigorosi possono sfuggire all’incompletezza, forse nemmeno le macchine possono replicare l’intelligenza umana.
È l’argomento di Roger Penrose. Ed è ora di prenderlo sul serio.
Penrose, l’imperatore nudo, e una scommessa ancora aperta
Nel 1989, Roger Penrose pubblica The Emperor’s New Mind [11] — un libro denso, ambizioso, e profondamente divisivo. La tesi centrale: la mente umana non può essere una macchina algoritmica. Non perché manchiamo di potenza computazionale. Ma per ragioni matematiche fondamentali, legate ai teoremi di incompletezza di Gödel.
L’argomento è elegante quanto controverso. Penrose parte da Gödel (1931): qualsiasi sistema formale sufficientemente ricco da contenere l’aritmetica contiene affermazioni vere ma indimostrabili [4]. Gödel costruisce un’affermazione che dice, sostanzialmente: “Questa affermazione non è dimostrabile in questo sistema”. Se fosse dimostrabile, sarebbe falsa (paradosso). Se non è dimostrabile, è vera — ma il sistema non può riconoscerla.
Ora, dice Penrose: noi umani vediamo che quella affermazione è vera. La comprendiamo. Riconosciamo la sua verità anche se sta “fuori” dal sistema formale. E questo — sostiene Penrose — significa che la nostra comprensione matematica non può essere catturata da nessun algoritmo finito. Perché se lo fosse, saremmo vincolati agli stessi limiti del sistema formale. Invece, noi “saltiamo fuori” dal sistema e vediamo verità che il sistema non può dimostrare.
Questa è una tesi audace. E ha attirato critiche feroci. Daniel Dennett, John Searle, e decine di altri hanno passato tre decenni a smontarla. Le obiezioni standard:
- Anche noi potremmo sbagliarci — Forse pensiamo di “vedere” la verità gödeliana, ma siamo inconsistenti come sistema. Non siamo macchine perfette.
- L’algoritmo potrebbe essere solo molto complesso — Dal fatto che non lo conosciamo non segue che non esista. Potrebbe essere euristica sofisticatissima.
- La fisica quantistica nei microtubuli — Penrose ha poi legato l’argomento a speculazioni su fisica quantistica nella coscienza. Questo ha reso la tesi ancora più controversa e facile da ridicolizzare.
Eppure. Eppure.
Dopo 35 anni, l’argomento non è stato definitivamente confutato. Rimane aperto. E con l’esplosione dell’AI negli ultimi anni, vale la pena rivisitarlo — non nelle sue speculazioni quantistiche, ma nel suo nucleo logico-matematico. Perché se Penrose aveva ragione, nemmeno un trilione di parametri e una foresta di GPU ci porteranno all’intelligenza generale. Non è questione di scala. È questione di categoria ontologica.
Io penso che Penrose abbia colto qualcosa di importante. Non so se ha ragione al 100%. Ma c’è abbastanza sostanza nell’argomento per difenderlo. Ed ecco perché.
Il sogno infranto di Hilbert
All’inizio del XX secolo, David Hilbert aveva un sogno magnifico: costruire un sistema matematico completo, consistente, decidibile [3]. Un sistema che potesse esprimere tutte le verità matematiche, senza contraddizioni, e con un algoritmo meccanico per decidere la verità di qualsiasi affermazione. Era il programma di Hilbert — l’ambizione di rendere la matematica perfetta come un orologio svizzero.
Poi arriva Kurt Gödel nel 1931 e dimostra che il sogno è impossibile [4]. Il suo teorema di incompletezza dice, in sostanza: qualsiasi sistema formale sufficientemente ricco da contenere l’aritmetica è necessariamente incompleto. Ci saranno sempre affermazioni vere che il sistema non può dimostrare.
La dimostrazione di Gödel è un capolavoro di auto-riferimento. Costruisce un’affermazione che dice, sostanzialmente: “Questa affermazione non è dimostrabile in questo sistema”. Se fosse dimostrabile, sarebbe falsa (paradosso). Se non è dimostrabile, allora è vera — ma il sistema non può riconoscerla. È una verità che sta fuori dal sistema, pur essendo perfettamente formulabile al suo interno.
Notate la somiglianza con il paradosso del mentitore: “Questa frase è falsa”. Se è vera, è falsa. Se è falsa, è vera. È lo stesso meccanismo, solo trasportato dal linguaggio naturale ai sistemi formali. E questo ci dice qualcosa di profondo: l’auto-riferimento genera necessariamente paradossi o incompletezza.
Alfred Tarski nel 1933 aggiunge un altro tassello [5]. Dimostra che un linguaggio formale sufficientemente espressivo non può definire la propria verità. Per definire cosa significa “vero in L” (dove L è il nostro linguaggio), abbiamo bisogno di un meta-linguaggio più ricco. E per definire la verità di quel meta-linguaggio, serve un meta-meta-linguaggio. E così via, in una gerarchia infinita.
È come se ogni sistema linguistico avesse bisogno di un osservatore esterno per dire cosa significa essere vero all’interno di quel sistema. Ma chi osserva l’osservatore? Chi definisce la verità del meta-linguaggio? La risposta di Tarski è: serve un’altra torre di Babele linguistica, sempre più in alto, senza mai raggiungere il cielo.
Perché questo dovrebbe riguardare l’intelligenza?
Ecco dove Penrose fa il salto audace — e dove l’argomento diventa controverso.
Se l’intelligenza umana fosse completamente algoritmica — se fossimo, in fondo, macchine di Turing molto complesse — allora saremmo vincolati agli stessi limiti dei sistemi formali. Saremmo soggetti all’incompletezza gödeliana. Ci sarebbero verità matematiche che non potremmo mai riconoscere, per costruzione.
Ma noi riconosciamo la verità della frase gödeliana. La comprendiamo. “Vediamo” che è vera anche se il sistema formale non può dimostrarla. E questo — dice Penrose — suggerisce che la nostra comprensione matematica opera a un livello che non è catturabile da nessun algoritmo finito.
È un argomento che si presta a obiezioni immediate. La più ovvia: come fai a sapere che noi “vediamo” davvero quella verità, e non stiamo solo producendo output che sembra comprensione? Forse siamo inconsistenti come sistema. Forse quello che chiamiamo “comprensione” è solo un algoritmo molto complesso che simula comprensione senza averla davvero.
E qui arriviamo al cuore del problema: non posso dimostrare che Penrose ha ragione. È una congettura filosofica, non un teorema. Ma ci sono ragioni per prenderla sul serio:
- La gerarchia di Tarski è aperta — Non c’è un meta-linguaggio finale. Per decidere “quando saltare al meta-livello” in un contesto particolare, serve un giudizio che non sembra riducibile a regole algoritmiche fisse.
- Nessuna AI ha mostrato vera flessibilità metalinguistica — I sistemi attuali gestiscono paradossi statisticamente (producendo token probabili), non semanticamente (riconoscendo il tipo di oggetto linguistico e adattando il processo).
- L’intuizione matematica è sorprendentemente potente — Come facciamo a “vedere” pattern, a riconoscere dimostrazioni eleganti, a intuire verità prima di dimostrarle? È solo euristica complessa, o c’è qualcosa di più?
Non ho risposte definitive. Ma penso che Penrose abbia identificato un problema reale — anche se la sua soluzione (fisica quantistica nei microtubuli) è speculativa.
Quando il cogito scopre di essere circolare
C’è un’altra ragione per cui trovo l’argomento convincente. Ed è personale.
Ricordo con precisione il momento in cui ho capito che il cogito ergo sum di Cartesio — quella certezza fondamentale su cui dovrebbe poggiare tutta la conoscenza — era più fragile di quanto sembrasse.
Cogito, ergo sum. Penso, quindi sono. Posso dubitare di tutto, ma non posso dubitare di stare dubitando. Il dubitare è pensiero. E se penso, devo esistere.
Poi qualcuno fa notare: chi è questo “io” che pensa? Cartesio dice: “Io penso”. Ma per dire “io”, devo già presupporre che esista un soggetto pensante. È esattamente la cosa che dovrei dimostrare.
È un cortocircuito logico dello stesso tipo del paradosso del mentitore. “Io esisto” presuppone un io che può affermare la propria esistenza. Ma se sto cercando di dimostrare che esisto, non posso usare me stesso come premessa. È come cercare di sollevare una sedia standoci seduto sopra.
Cartesio poteva dire: “C’è pensiero”. Questo è innegabile. Se c’è dubbio, c’è pensiero. Ma da “c’è pensiero” a “io penso” c’è un salto logico. Stai introducendo un soggetto — un io unificato, persistente nel tempo — che la semplice presenza di pensiero non garantisce.
Questa scoperta mi aveva deluso, inizialmente. Se anche il cogito — l’argomento più solido della filosofia moderna — contiene una circolarità nascosta, cosa rimane di certo?
Poi ho capito che era esattamente il punto. L’auto-riferimento è inevitabile quando il pensiero cerca di afferrare sé stesso. Non è un errore di Cartesio. È una proprietà strutturale del linguaggio che parla di sé stesso.
Qualsiasi tentativo di fondare la conoscenza su basi assolutamente certe si scontra con questo problema. E questo rafforza l’intuizione di Penrose: quando il pensiero si piega su sé stesso, emergono strutture che non sembrano riducibili a computazione algoritmica.
Il vero scandalo: è il linguaggio, non la matematica
Ma c’è qualcosa di ancora più sconcertante in tutto questo. Qualcosa che rende la situazione molto più grave — o molto più interessante — di quanto sembri.
I teoremi di Gödel riguardano sistemi formali. Astrazioni matematiche costruite con regole precise, simboli artificiali, procedure codificate. Quando scopriamo che questi sistemi contengono incompletezza, possiamo dire: “Beh, abbiamo costruito male. Rifacciamo le fondamenta.”
La computabilità è ancora più rarefatta — è un’astrazione su un’astrazione. Le macchine di Turing, gli algoritmi, la complessità computazionale. Se scopriamo che certi problemi sono incomputabili, la vita continua.
Ma il linguaggio naturale? Quello è un’altra storia completamente.
Il linguaggio naturale non è una costruzione scientifica. È cresciuto organicamente, spontaneamente, in tutte le culture umane, per decine di migliaia di anni. È il substrato stesso del pensiero. È quello che usiamo per dire “ho fame”, “ti amo”, “il treno è in ritardo”.
E proprio questo linguaggio naturale, onnipresente e pre-teorico, contiene paradossi strutturali.
Non serve costruire sistemi formali sofisticati per generare contraddizioni. Basta dire: “Questa frase è falsa”. Cinque parole di italiano comune. Nessun simbolo matematico. Nessuna astrazione logica. Solo linguaggio ordinario. E già hai un paradosso insolvibile.
Oppure: “Il barbiere rade tutti e solo coloro che non si radono da soli”. Una descrizione in linguaggio naturale di una situazione apparentemente banale. Eppure genera un cortocircuito logico dal quale non c’è via d’uscita.
Questo è profondamente significativo. Significa che il problema non sta nelle nostre teorie matematiche sofisticate. Sta nel linguaggio ordinario che usiamo per costruire quelle teorie. Sta nel pensiero quotidiano, pre-scientifico, che tutti gli esseri umani condividono.
Puoi costruire tutti i sistemi formali che vuoi. Puoi inventare logiche non classiche, logiche paraconsistenti [9], logiche fuzzy. Ma se quel sistema è capace di parlare di sé stesso — se ha auto-riferimento — allora i paradossi torneranno. Non perché hai sbagliato le regole. Perché l’auto-riferimento e la paradossalità sono legati in modo inscindibile.
E questo significa qualcosa di devastante: non possiamo pensare senza linguaggio, e il linguaggio è strutturalmente capace di generare paradossi quando riflette su sé stesso. Non è un problema tecnico da risolvere. È una caratteristica dell’architettura del significato.
La lezione per l’intelligenza artificiale
Arriviamo al punto che interessa davvero: l’intelligenza artificiale. Se la realtà — e il linguaggio stesso — contiene strutture che sfuggono alla formalizzazione completa, cosa significa per l’AI?
I Large Language Models moderni non sono sistemi logici formali. Sono modelli statistici. Producono distribuzioni di probabilità su sequenze di token. Generano output inconsistenti senza collassare. In questo senso, sono già “tolleranti all’illogicità” — non nel senso gödeliano, ma in senso statistico.
Ma c’è una distinzione cruciale che Penrose (e io con lui) sostiene: inconsistenza statistica non è comprensione pragmatica dell’auto-riferimento.
Quando un LLM incontra “Questa frase è falsa”, non “gestisce” il paradosso nel senso umano. Produce una distribuzione di probabilità su possibili continuazioni, spesso banalizzando o evitando il problema. Non ha quella che chiamerei “coscienza metalinguistica” — la capacità di riconoscere che tipo di oggetto linguistico ha di fronte e adattare il proprio processo di risposta di conseguenza.
Noi umani, quando incontriamo il paradosso del mentitore, facciamo qualcosa di molto più sofisticato: cambiamo livello. Riconosciamo l’enunciato come un “oggetto strano”, un paradosso, qualcosa che va trattato diversamente. Saltiamo al meta-linguaggio — la soluzione di Tarski.
Ma — ed è qui che l’argomento di Penrose morde — chi decide quando saltare? Chi riconosce che “questo è un paradosso, devo cambiare livello”?
Un sistema che opera rigorosamente a un livello L non può decidere autonomamente di passare a L+1. Serve qualcosa di esterno — o qualcosa che non è riducibile a calcolo algoritmico in L.
Mi si è obiettato: perché non potrebbe essere un algoritmo euristico complesso? Un controllore che rileva loop, un sistema Actor-Critic, un Mixture of Experts gerarchico?
E ammetto: non posso escluderlo. Dal fatto che non conosco l’algoritmo non segue logicamente che non esista. Potrebbe essere solo molto complesso, molto contestuale, molto dipendente dall’esperienza embodied.
Ma ci sono ragioni teoretiche — la gerarchia aperta di Tarski, l’incompletezza gödeliana — per sospettare che non possa esistere un algoritmo completo e chiuso per decidere “quando saltare al meta-livello” in ogni contesto. Perché richiederebbe una procedura decisionale che opera su una gerarchia senza fondamento ultimo.
Forse un’intelligenza artificiale davvero generale dovrà accettare la stessa cosa che noi umani abbiamo accettato: non perfezione logica, ma ricchezza espressiva. Non assenza di paradossi, ma capacità di navigarli pragmaticamente. Non eliminazione dell’auto-riferimento, ma integrazione costruttiva.
E forse — ed è qui che Penrose potrebbe avere ragione — questa integrazione richiede qualcosa di più della computazione algoritmica pura. Non necessariamente fisica quantistica nei microtubuli. Ma una qualche forma di processo che opera “fuori” dalla catena causale algoritmica standard.
Non lo so con certezza. Ma penso che valga la pena difendere questa posizione, anche se controversa.
Postscriptum: Sui critici (e perché alcune obiezioni non reggono)
Dopo aver esposto l’argomento, è giusto anticipare le critiche più comuni. Alcune sono devastanti. Altre meno.
“Stai facendo l’argomento di Penrose senza dirlo”
Obiezione: Questa non è una tesi originale. È Lucas-Penrose riscaldato. L’hai citato in bibliografia ma non lo hai engaggiato direttamente fino a metà articolo.
Risposta: Vero. E ho scelto di farlo esplicitamente ora. Non pretendo originalità accademica. Sto difendendo una posizione controversa che Penrose ha articolato prima di me. Il mio contributo non è scoprire l’argomento, ma ripropagarlo con voce propria, ripulito dalle speculazioni quantistiche più controverse, e connesso al dibattito contemporaneo sull’AI.
I blog migliori non sono originali in senso accademico. Sono riformulazioni potenti di idee con la voce dell’autore. E questo è esattamente ciò che sto facendo.
“Il linguaggio naturale non è ‘scandaloso’, è fit-for-purpose”
Obiezione: Accusare il linguaggio naturale di essere paradossale è come accusare un pesce di essere bagnato. Il LN è ottimizzato per comunicazione pragmatica, non per consistenza logica. Non c’è nessuno “scandalo”.
Risposta: Hai ragione che “scandalo” è retorico. Ritiro il termine se suona come se stessi accusando il linguaggio di tradire una promessa che non ha mai fatto.
Ma rimane qualcosa di filosoficamente significativo: noi pensiamo dentro un sistema (il linguaggio) che non può garantire consistenza logica completa quando si auto-riferisce. Questo non è difetto. Ma è un vincolo architetturale che vale la pena capire — specialmente quando cerchiamo di costruire AI.
La matematica ha cercato di costruire un “rifugio” dall’ambiguità del LN. E ha scoperto (Gödel, Russell) che anche quel rifugio contiene le stesse strutture problematiche. Non puoi sfuggire completamente dall’auto-riferimento senza perdere espressività. Espressività e consistenza completa sono incompatibili.
“Il ‘salto’ al meta-livello potrebbe essere algoritmo complesso”
Obiezione: Dal fatto che non conosci l’algoritmo per decidere “quando saltare al meta-livello” non segue che non esista. Potrebbe essere euristica complessa, Actor-Critic, Mixture of Experts. Stai facendo argumentum ad ignorantiam.
Risposta: Questa è l’obiezione più forte. E ammetto: non posso escludere che sia algoritmo molto complesso.
Ma non è solo ignoranza. Ci sono ragioni teoretiche — la gerarchia aperta di Tarski, l’assenza di un meta-linguaggio ultimo — per sospettare che non possa esistere una procedura algoritmica completa per questo. La decisione richiede giudizio contestuale, pragmatico, che non sembra riducibile a regole fisse.
E empiricamente: nessun sistema artificiale ha finora mostrato la flessibilità pragmatica umana. Non dimostra impossibilità, ma suggerisce che non è solo questione di “più parametri”.
Ammetto che è congettura. Ma è congettura basata su ragioni teoretiche solide e gap empirico persistente.
“I LLM sono già ‘illogici’ come dici tu”
Obiezione: I LLM moderni sono già statistici, fluidi, inconsistenti. Non sono sistemi formali rigidi. Sono esattamente il “Sistema B” che dici dovrebbe esistere. Quindi l’AI è già lì.
Risposta: Distinzione cruciale — c’è differenza tra “inconsistenza statistica” (allucinazioni, contraddizioni casuali) e “comprensione pragmatica dell’auto-riferimento”.
I LLM producono token probabili. Noi umani riconosciamo tipi di situazioni linguistiche e adattiamo il processo. Quando incontriamo paradosso, non produciamo solo distribuzione di probabilità — facciamo meta-salto consapevole.
Ma ammetto: Non so se questa distinzione reggerà. Forse con grounding in contesto pragmatico reale (corpo, azione, scopo), l’auto-riferimento statistico converge verso quello semantico. Sono disposto a rivedere questa posizione.
Sintesi delle critiche
Le obiezioni fanno tutte la stessa mossa: cercano di mostrare che il gap tra AI e intelligenza umana è solo quantitativo (più complessità, più contesto), non qualitativo (categoria ontologica diversa).
E io non posso dimostrare definitivamente che abbiano torto. È congettura filosofica, non teorema matematico.
Ma penso che ci siano ragioni sufficienti per sospettare un gap qualitativo. E vale la pena difendere questa posizione — anche se controversa, anche se potrebbe essere sbagliata.
Conclusione: Una scommessa aperta
Non ho dimostrato che l’intelligenza umana è non-computabile. Ho argomentato che ci sono ragioni teoretiche ed empiriche per sospettarlo.
Penrose ha articolato questo argomento per primo. Io lo sto difendendo perché penso abbia colto qualcosa di importante — anche se le sue speculazioni quantistiche vanno troppo oltre.
La parte solida è la matematica: Gödel, Tarski, Russell hanno dimostrato limiti strutturali dei sistemi formali quando affrontano l’auto-riferimento.
La parte speculativa è l’estensione alla cognizione umana. Lì sono in territorio di congetture filosofiche, non dimostrazioni tecniche.
Potrei sbagliarmi completamente. L’intelligenza umana potrebbe essere totalmente algoritmica, solo con algoritmo talmente complesso, contestuale, embodied che ci sembra “altro”. E se l’ingegneria computazionale dimostra che ho torto — con AGI che mostra vera comprensione metalinguistica — accetterò la sconfitta con curiosità.
Ma fino ad allora, penso che valga la pena difendere questa posizione. Perché se Penrose aveva anche solo parzialmente ragione, cambia profondamente come pensiamo l’intelligenza artificiale.
Non è questione di più dati, più parametri, più GPU. È questione di capire se c’è qualcosa nella cognizione umana che opera in uno spazio diverso dalla computazione algoritmica standard. E se c’è, quali implicazioni ha per il futuro dell’AI.
Il linguaggio si morde la coda. I sistemi formali si scontrano con l’incompletezza. E noi umani navighiamo tutto questo con una fluidità che ancora non capiamo completamente.
Forse quella fluidità è algoritmica. Forse no. È una domanda aperta. E va bene che lo sia.
Bibliografia Verificata
[1] Russell, B. (1903). The Principles of Mathematics. Cambridge University Press.
[2] Quine, W.V.O. (1966). “The Ways of Paradox”. In The Ways of Paradox and Other Essays. Random House.
[3] Hilbert, D. (1900). “Mathematische Probleme”. Göttinger Nachrichten.
[4] Gödel, K. (1931). “Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I”. Monatshefte für Mathematik und Physik, 38, 173-198.
[5] Tarski, A. (1933/1956). “The Concept of Truth in Formalized Languages”. In Logic, Semantics, Metamathematics. Oxford: Clarendon Press.
[6] Korzybski, A. (1933). Science and Sanity. Institute of General Semantics.
[7] Barwise, J. & Etchemendy, J. (1987). The Liar: An Essay on Truth and Circularity. Oxford University Press.
[8] Wittgenstein, L. (1953). Philosophical Investigations. Blackwell Publishing.
[9] Priest, G. (1987). In Contradiction: A Study of the Transconsistent. Martinus Nijhoff.
[10] Hofstadter, D.R. (1979). Gödel, Escher, Bach: An Eternal Golden Braid. Basic Books.
[11] Penrose, R. (1989). The Emperor’s New Mind. Oxford University Press.
[12] Faizal, M., Krauss, L.M., Shabir, A., & Marino, F. (2025). “Consequences of Undecidability in Physics on the Theory of Everything”. Journal of Holography Applications in Physics.

Leave a reply to Salahzar's Weblog Cancel reply