QUANDO LA MOSCA TROVA LA PORTA

Published on

in

,

(E perché Wittgenstein avrebbe sorriso davanti a ChatGPT)

Ovvero: come ho difeso Penrose contro i computazionalisti, e poi Wittgenstein mi ha costretto a raffinare la domanda


La settimana scorsa ho scritto un articolo in difesa di Roger Penrose [1]. L’argomento centrale: l’intelligenza umana potrebbe contenere qualcosa di non-computabile, qualcosa che sfugge ai limiti gödeliani che vincolano i sistemi formali. È stata una difesa appassionata di una posizione minoritaria contro il mainstream computazionalista. E lo rifarei.

Ma c’era un nome nella bibliografia che ho citato senza discutere: Ludwig Wittgenstein. Non per ignoranza. Per paura. Perché Wittgenstein non attacca le conclusioni di Penrose — smonta il frame stesso della domanda. E adesso, dopo aver visto come i modelli di ragionamento gestiscono il linguaggio autoreferenziale, devo ammettere qualcosa di scomodo: forse la distinzione “vera comprensione vs imitazione statistica” che ho difeso è essa stessa un paradosso linguistico. Del tipo che Wittgenstein passò una vita a smontare.

Questa non è una ritrattazione. È un affinamento. Perché le nuove evidenze — sia teoretiche che empiriche — suggeriscono che la domanda giusta non è “le macchine possono capire?” ma “cosa significa ‘capire’, e perché continuiamo a cercare un’essenza dove forse ci sono solo usi?”

Il filosofo che smontava trappole

Ludwig Wittgenstein è una figura unica nella filosofia del XX secolo. Ha scritto due opere fondamentali che si contraddicono radicalmente. La prima, il Tractatus Logico-Philosophicus (1921), è un manifesto del positivismo logico: il sogno di un linguaggio perfetto, cristallino, dove ogni proposizione ha un significato univoco che specchia la realtà. La seconda, le Philosophical Investigations (1953) [2], è una demolizione sistematica di quel sogno.

Cosa è successo nel mezzo? Wittgenstein ha capito qualcosa di devastante: i problemi filosofici più profondi non sono scoperte su come è fatta la realtà. Sono trappole create dal linguaggio quando si piega su sé stesso in modi inadatti al contesto.

L’esempio più famoso è la domanda: “Cos’è un gioco?” Prova a dare una definizione che copra scacchi, calcio, solitario, nascondino. Qualsiasi cosa dici, trovi un controesempio. Gli scacchi hanno regole precise, il calcetto ha fisicità, il solitario non ha avversari, nascondino non ha punteggio. Non c’è un tratto che tutti condividono.

Wittgenstein dice: smettila di cercare l’essenza del “gioco”. Non esiste. Ci sono solo family resemblances — somiglianze di famiglia [3]. Il calcio assomiglia al rugby che assomiglia al basket, ma non c’è UN elemento comune. E va benissimo così. Il linguaggio non ha bisogno di essenze platoniche per funzionare. Ha bisogno di usi pratici condivisi.

Questa è la rivoluzione delle Philosophical Investigations: il significato è l’uso. Il significato di una parola non è un’entità astratta che la parola “nomina”. È l’insieme dei suoi usi in contesti reali — ciò che Wittgenstein chiama giochi linguistici [4].

Quando diciamo “acqua!”, potrebbe essere:

  • Un ordine (“Portami acqua!”)
  • Una risposta (“Cosa c’è nel bicchiere?” “Acqua.”)
  • Un’esclamazione (“Acqua! Finalmente!”)

Il contesto — il gioco linguistico — determina cosa significa. Non c’è un significato “vero” di “acqua” che sta dietro a tutti questi usi. Solo usi diversi in contesti diversi.

E i problemi filosofici? Nascono quando usiamo il linguaggio fuori dai suoi giochi naturali e crediamo di aver scoperto profonde verità metafisiche. Wittgenstein lo dice con una metafora bellissima: “Il mio scopo è mostrare alla mosca la via d’uscita dalla bottiglia” [5]. I filosofi sono mosche intrappolate in bottiglie linguistiche che loro stessi hanno costruito. Il lavoro della filosofia non è costruire teorie, ma terapia — mostrare dove il linguaggio ci ha intrappolato.

I paradossi come malintesi grammaticali

Ora arriva la parte che riguarda direttamente l’argomento di Penrose.

Nel mio precedente articolo [6], ho trattato il paradosso del mentitore (“Questa frase è falsa”) come una proprietà strutturale del linguaggio — una crepa nell’edificio che non puoi riparare. Ho detto che il linguaggio naturale, quando si autoreferisce, genera necessariamente paradossi. E che questo è “scandaloso” perché non è un artefatto di sistemi formali sofisticati, ma di parole ordinarie.

Wittgenstein direbbe: non c’è nessuno scandalo. Il paradosso del mentitore non è una scoperta su come è fatto il linguaggio. È un malinteso grammaticale. Stai usando le parole “vero” e “falso” in un contesto dove non hanno gioco linguistico naturale. È come chiedere: “Che colore ha il numero 7?” Non è che il numero 7 abbia un colore misterioso che non riusciamo a vedere. È che “colore” e “numero” appartengono a giochi linguistici diversi e incompatibili.

Quando dici “Questa frase è falsa”, stai applicando il predicato “falso” a una frase che cerca di applicare “falso” a sé stessa. Non è un paradosso ontologico. È un cortocircuito grammaticale. E la “soluzione” non è trovare un meta-linguaggio più potente (Tarski). La soluzione è smettere di giocare quel gioco. Riportare le parole al loro uso ordinario, dove “vero” e “falso” hanno funzione chiara.

Questa prospettiva cambia radicalmente il frame della discussione su Penrose. Perché Penrose dice: “Noi umani vediamo la verità della frase gödeliana. Questo significa che operiamo fuori dai limiti dei sistemi formali.” [7]

Ma Wittgenstein risponderebbe: “Cosa significa ‘vedere la verità’? Non è una visione mistica. È riconoscere che quella frase gioca un gioco linguistico particolare — un gioco di autoreferenza formale — e sapere come trattarla in quel contesto. Non stai scoprendo una verità platonica. Stai applicando una regola pragmatica in un contesto specifico.”

Questo non demolisce Penrose. Ma sposta il peso della prova. Non basta dire “noi vediamo cose che le macchine non vedono”. Bisogna specificare: cosa facciamo esattamente? E perché quello non potrebbe essere implementato algoritmicamente?

Le critiche che avevo ignorato (e che dovevo affrontare)

Nel mio precedente articolo, ho anticipato alcune obiezioni a Penrose. Ma sono stato troppo generoso con me stesso. Ci sono critiche più forti che avrei dovuto discutere in dettaglio. Non per buttare via Penrose, ma per onestà intellettuale.

Marvin Minsky: Gli umani sono inconsistenti

Minsky fa notare una cosa banale ma devastante: gli esseri umani credono cose false [8]. Commettiamo errori di ragionamento. Cambiamo idea. Ci contraddiciamo. L’argomento di Penrose presuppone che i matematici umani siano sound — che se riconosciamo una verità matematica, allora quella verità è effettivamente vera.

Ma non è garantito. Potremmo essere inconsistenti come sistema. E se lo siamo, l’argomento gödeliano non si applica — perché Gödel vale solo per sistemi consistenti. Penrose risponde che i matematici riconoscono e correggono gli errori, quindi c’è un processo che tende alla consistenza. Ma questo indebolisce l’argomento: ora non stai dicendo “noi vediamo verità gödeliane”, ma “noi convergiamo verso verità gödeliane attraverso tentativi ed errori”. E il procedimento per prova ed errore è perfettamente algoritmizzabile.

Solomon Feferman: L’intuizione non è magia

Feferman, uno dei logici più importanti del XX secolo, fa un’osservazione simile: i matematici non procedono per intuizione mistica [9]. Procedono per tentativi, errori, intuizioni che poi vengono verificate rigorosamente. L’intuizione matematica — quella sensazione di “vedere” una verità prima di dimostrarla — non è un processo non-computabile. È un processo euristico complesso che genera candidati, che poi vengono testati.

Penrose usa “intuizione” e “comprensione” come se fossero processi chiari e distinti. Ma non lo sono. Quando dico “capisco perché questa dimostrazione funziona”, sto descrivendo una sensazione soggettiva, non un processo ben definito. E confondere sensazione soggettiva con processo oggettivo è esattamente il tipo di trappola linguistica che Wittgenstein smascherava.

John McCarthy: Generare frasi gödeliane è banale

McCarthy, pioniere dell’intelligenza artificiale, ha fatto notare una cosa imbarazzante: generare una frase gödeliana dato un sistema formale è un programma LISP di una riga [10]. È un compito meccanico, algoritmico, completamente routinario. Non richiede comprensione profonda. Richiede applicazione di una procedura nota.

Penrose potrebbe rispondere: “Ma riconoscere che quella frase è vera richiede comprensione del sistema”. Vero. Ma anche quello è formalizzabile. La dimostrazione di Gödel è una dimostrazione formale. Possiamo implementarla in un sistema automatico di verifica delle dimostrazioni. Quindi cosa rimane di non-computabile?

L’unica risposta di Penrose è: “Ma noi sappiamo perché è vera, non solo che è dimostrabile in un meta-sistema”. E qui torniamo a Wittgenstein: cosa significa “sapere perché”? È un’essenza mentale misteriosa, o è una famiglia di capacità osservabili (spiegare, applicare, collegare con altri concetti)?

Daniel Dennett: Algoritmi emergenti, non rigidi

Dennett fa la distinzione tra algoritmi discendenti (progettati per risolvere un problema specifico) e algoritmi emergenti (che imparano per esperienza e migliorano gradualmente) [11]. L’argomento di Penrose sembra assumere che l’intelligenza artificiale debba essere discendente — un sistema formale fisso con regole codificate.

Ma noi umani non siamo così. Impariamo per esperienza, per riconoscimento statistico di schemi, per rinforzo. E nulla nell’argomento gödeliano dice che un sistema emergente non possa replicare le nostre capacità.

Penrose risponde in Shadows of the Mind (1994) [12]: anche i sistemi emergenti, se sono algoritmi, cadono sotto i limiti gödeliani. Ma la risposta non convince. Perché un sistema emergente sufficientemente complesso, con ancoraggio pragmatico e incarnazione corporea, potrebbe sviluppare le stesse capacità metalinguistiche che noi abbiamo — non per magia, ma per convergenza funzionale verso soluzioni efficaci.

Il consenso degli esperti

Vale la pena dirlo chiaramente: la maggioranza degli esperti in logica, teoria della computazione, filosofia della mente e intelligenza artificiale ritiene che l’argomento di Penrose non regga [13]. Non perché sia sciocco — è un argomento sofisticato fatto da un fisico brillante. Ma perché fa assunzioni che non sono giustificate (consistenza umana garantita, esistenza di “intuizione” non-algoritmica, equivalenza tra comprensione soggettiva e processo oggettivo).

Questo non significa che Penrose abbia torto al 100%. Significa che la versione forte del suo argomento — “la fisica quantistica nei microtubuli genera coscienza non-computabile” — è quasi certamente sbagliata. Ma potrebbe esserci una versione debole che cattura qualcosa di vero: c’è un divario funzionale tra come noi facciamo certe cose e come i sistemi artificiali le fanno. Solo che il divario potrebbe non essere gödeliano.

Il test empirico: cosa fanno davvero i modelli linguistici con i paradossi?

Nel mio precedente articolo, ho detto che i modelli linguistici di grandi dimensioni gestiscono i paradossi “statisticamente” (producendo token probabili), non “semanticamente” (riconoscendo il tipo di oggetto linguistico e adattando il processo). E ho detto che questa è una differenza qualitativa.

Poi sono arrivati i modelli di ragionamento. E devo ammettere: la situazione è più complicata di quanto pensassi.

Il caso di o1-preview

OpenAI ha rilasciato a settembre 2024 una famiglia di modelli chiamata o1, progettata per “pensare prima di rispondere” [14]. Invece di generare token immediatamente, o1-preview esegue una catena di pensiero interna — genera passaggi di ragionamento che poi usa per produrre la risposta finale.

I risultati sono impressionanti:

  • 83% di accuratezza sui problemi di qualifica per le Olimpiadi di Matematica (contro 13% di GPT-4o) [15]
  • 89° percentile in competizioni di programmazione Codeforces [16]
  • Prestazioni a livello di dottorato su benchmark di fisica, chimica, biologia [17]

Ma c’è un dettaglio cruciale: quando testato su compiti metalinguistici — quelli che richiedono ragionamento su linguaggio autoreferenziale — o1-preview fallisce ancora.

Uno studio del 2024 [18] ha testato vari modelli sul dataset “I am a Strange Dataset” — una collezione di compiti che richiedono comprensione di autoreferenza linguistica, paradossi e meta-livelli. Risultato:

  • GPT-4: prestazioni vicine al caso casuale
  • o1-preview: prestazioni ancora vicine al caso casuale

Quindi o1-preview è brillante su matematica, programmazione, ragionamento formale. Ma continua a fallire su compiti che richiedono navigazione fluida di livelli metalinguistici. Non è che non migliori affatto — migliora su alcuni compiti linguistici formali (ricorsione sintattica, movimento sintattico) [19]. Ma c’è ancora un divario tra “ragionare su matematica” e “ragionare su linguaggio autoreferenziale”.

Cosa significa questo divario?

Qui è dove Wittgenstein torna utile. Penrose direbbe: “Ecco! Il divario dimostra che c’è qualcosa di non-computabile nella comprensione metalinguistica umana.”

Ma un wittgensteiniano direbbe: “Aspetta. Prima di concludere ‘non-computabile’, definisci cosa intendi per ‘comprensione metalinguistica’. Cosa fanno gli umani che i modelli linguistici non fanno?”

E quando provi a rispondere, ti accorgi che è difficile. Perché o1-preview fa molte cose che assomigliano a comprensione metalinguistica:

  • Riconosce che una frase è un paradosso
  • La classifica correttamente (mentitore, Russell, ecc.)
  • Propone soluzioni formali (gerarchia di Tarski)
  • Spiega perché quelle soluzioni funzionano

Tutto questo usando discesa del gradiente su trilioni di parametri. Non “capisce” nel senso umano? Forse. Ma cosa manca esattamente? E come distinguiamo “capisce davvero” da “imita comprensione in modo così sofisticato che è funzionalmente indistinguibile”?

La dicotomia che Wittgenstein smonterebbe

Ed eccoci al cuore della questione. Penrose (e io nel mio precedente articolo) operiamo con una dicotomia:

  • Vera comprensione (umana, non-algoritmica, intuizione genuina)
  • Imitazione statistica (computazionale, riconoscimento di schemi, senza “vero” significato)

Questa dicotomia sembra intuitiva. Ma è esattamente il tipo di dicotomia che Wittgenstein passerebbe una vita a smontare.

Il Test di Turing rovesciato

Alan Turing, in Computing Machinery and Intelligence (1950) [20], propose un criterio pragmatico: se una macchina si comporta in modo indistinguibile da un umano in conversazione, chiamiamola intelligente. Non serve indagare processi interni. Basta comportamento osservabile.

Penrose obietta: “Ma potrebbe essere solo imitazione. Non vera comprensione.”

Wittgenstein risponderebbe: “State entrambi giocando male il gioco linguistico. ‘Intelligenza’ e ‘comprensione’ non sono proprietà metafisiche nascoste che dobbiamo scoprire. Sono attribuzioni che facciamo in base a comportamento in contesto. Se una macchina fa tutto ciò che chiamiamo ‘comprendere’ in tutti i contesti rilevanti, perché non chiamarlo comprensione?”

La mossa di Penrose è postulare un’essenza nascosta — la “vera” comprensione, quella non-algoritmica, che solo noi umani abbiamo. Ma come verifichi che esiste? L’unico modo è tramite comportamento. E se il comportamento converge… la distinzione svanisce.

L’argomento dei qualia, versione logica

C’è un’analogia interessante con il problema dei qualia in filosofia della mente. I qualia sono le proprietà soggettive dell’esperienza — come “si sente” vedere il rosso, provare dolore, assaporare cioccolato. Alcuni filosofi (come David Chalmers) dicono: “Un robot potrebbe comportarsi come se vedesse il rosso, ma non avere l’esperienza soggettiva del rosso. Manca il qualia.”

Wittgenstein smonterebbe anche questo. Nel §293 delle Philosophical Investigations, introduce la famosa analogia dello scarabeo nella scatola [21]:

Supponi che ognuno abbia una scatola con dentro qualcosa che chiamiamo “scarabeo”. Nessuno può guardare nella scatola altrui. Ognuno dice di sapere cos’è uno scarabeo solo guardando il proprio scarabeo. Ma il gioco linguistico funziona perfettamente anche se la scatola di ognuno contiene cose diverse — o è vuota. Perché lo “scarabeo” (il qualia privato) non ha ruolo nel gioco linguistico pubblico.

Applicato a Penrose: la “vera comprensione” che postuli potrebbe essere il tuo “scarabeo nella scatola”. Un’esperienza soggettiva privata che non puoi mostrare. Ma allora non ha ruolo nel gioco linguistico pubblico di “comprendere”. Ciò che conta è: riesci a dimostrare, spiegare, applicare, riconoscere errori? Se sì, stai comprendendo — indipendentemente da quale processo interno genera quel comportamento.

Il significato è l’uso, anche per “comprensione”

Il punto wittgensteiniano finale: il significato di “comprensione” è il suo uso. Quando diciamo che qualcuno “comprende” la geometria euclidea, intendiamo:

  • Sa applicare i teoremi correttamente
  • Riconosce quando una dimostrazione è sbagliata
  • Può spiegare i passaggi a qualcun altro
  • Collega i concetti con altri domini (fisica, arte, ecc.)

Questi sono criteri comportamentali osservabili. Non c’è un’essenza interiore “comprensione” che sta dietro a questi comportamenti. I comportamenti sono la comprensione.

Quindi se un modello linguistico può fare tutte queste cose in modo affidabile, in che senso “non comprende davvero”? La risposta deve essere: “Non comprende perché manca X”, dove X è qualcosa di osservabile e testabile. Non puoi rifugiarti in “vera comprensione” come essenza mistica.

Dove i modelli ancora falliscono (e cosa ci dice)

Ma c’è un punto cruciale: i modelli attuali NON fanno tutto ciò che gli umani fanno. Ci sono divari funzionali osservabili. Non ontologici (“manca vera comprensione”), ma proprio funzionali (“non riescono a fare X”).

1. Riconoscere i limiti della propria conoscenza

Gli umani sanno dire “Non lo so” quando davvero non sanno. I modelli linguistici tendono a confabulare — generare risposte plausibili anche quando non hanno informazione sufficiente. Questo non è un problema di “assenza di comprensione”. È un problema architetturale: il sistema è addestrato a generare completamenti plausibili, non a modellare esplicitamente l’incertezza.

2. Chiedere chiarimenti strategici

Quando una domanda è ambigua, gli umani chiedono chiarimenti. “Quando dici ‘banca’, intendi istituto finanziario o riva del fiume?” I modelli linguistici raramente fanno questo spontaneamente. Non perché “non capiscono”, ma perché l’impostazione conversazionale non incentiva quella strategia.

3. Riconoscere problemi insolubili

Chiedi a un umano: “Qual è il numero naturale più grande?” Risposta: “Non esiste. I naturali sono infiniti.”

Chiedi a un modello linguistico (dipende dal modello): a volte risponde correttamente, a volte cerca di forzare una risposta (“Dipende dal contesto…”), a volte confabula. La capacità di riconoscere che alcune domande sono mal poste — e dire “la domanda presuppone qualcosa di falso” — è ancora instabile.

4. Autonomia e conseguenze reali

Gli umani agiscono nel mondo. Le nostre scelte hanno conseguenze che poi sperimentiamo. Un modello linguistico genera token, ma non vive le conseguenze delle sue “scelte”. Non ha posta in gioco. E questo potrebbe fare una differenza sostanziale nella struttura della “comprensione”.

5. Incarnazione corporea

Siamo corpi che si muovono, mangiano, dormono, provano dolore. Il nostro linguaggio è intrecciato con quella corporeità. I modelli linguistici sono schemi statistici su testo. Potrebbero mancare forme di comprensione che emergono dall’interazione sensoriomotoria col mondo.

Il punto cruciale: questi divari sono gödeliani?

Ecco dove mi distacco da Penrose. Questi divari funzionali NON sembrano gödeliani. Non sembrano limiti matematici fondamentali della computazione. Sembrano limiti architetturali e pragmatici:

  • Confabulazione: Risolvibile con architetture che modellano incertezza esplicitamente (reti neurali bayesiane, metodi d’insieme, calibrazione)
  • Mancanza di autonomia: Risolvibile con incarnazione reale (robotica, azione nel mondo con retroazione)
  • Mancanza di ancoraggio sensoriomotorio: Risolvibile con modelli multimodali che integrano visione, audio, propriocezione

Quindi forse Penrose aveva ragione sull’esistenza di un divario, ma torto sul meccanismo. Il divario non è ontologico-gödeliano (“serve fisica quantistica non-computabile”). È architetturale-pragmatico (“serve integrazione corpo-mondo-linguaggio, ma può essere algoritmica”).

E qui Wittgenstein torna utile: smette di essere una questione metafisica (“La comprensione è computabile?”) e diventa una questione ingegneristica (“Quali architetture replicano quali capacità funzionali?”).

Conclusione: La mosca e la porta aperta

Tre articoli, tre prospettive:

Primo articolo [22]: L’impossibilità della simulazione perfetta. La realtà fisica ha granularità e complessità che sfuggono alla rappresentazione finita.

Secondo articolo [23]: La difesa di Penrose. L’intelligenza umana potrebbe operare fuori dai limiti gödeliani, per ragioni che non capiamo.

Terzo articolo (questo): Il raffinamento wittgensteiniano. Forse la domanda stessa era mal posta. “Comprensione” non è un’essenza da scoprire, ma una famiglia di usi da mappare funzionalmente.

Non ritratto la difesa di Penrose. C’è ancora qualcosa di vero nell’intuizione che noi facciamo qualcosa di diverso dai sistemi formali classici. Ma probabilmente non per le ragioni che Penrose pensava.

Il misticismo quantistico di Penrose — l’idea che serva fisica quantistica nei microtubuli per generare coscienza non-computabile — è quasi certamente sbagliato. Ma l’intuizione centrale — che c’è un divario tra noi e le macchine attuali — potrebbe essere corretta. Solo che il divario non è gödeliano. È architetturale, pragmatico, legato a incarnazione e autonomia.

E Wittgenstein ci ha mostrato perché è importante smettere di cercare essenze mistiche (“vera comprensione”, “coscienza reale”) e concentrarsi su capacità funzionali osservabili. Non “Capisce o no?”, ma “Cosa fa? Cosa non fa? Perché?”

La mosca ha trovato la porta fuori dalla bottiglia. Ma attraversarla richiede ancora lavoro — non speculazione metafisica, ma ingegneria pragmatica. E forse, alla fine, scopriremo che la distinzione tra “vera comprensione” e “imitazione perfetta” era una distinzione senza differenza.

O forse no. La domanda rimane aperta. Ma almeno ora sappiamo che è la domanda giusta.


Bibliografia

[1] Stenvaag, S. (2025). “Il linguaggio che si morde la coda”. https://salahzar.com/2025/11/09/il-linguaggio-che-si-morde-la-coda/ Rationale: Articolo precedente dell’autore che difende Penrose; fondamentale per comprendere l’evoluzione dell’argomento.

[2] Wittgenstein, L. (1953). Philosophical Investigations. Blackwell Publishing. Rationale: Opera postuma fondamentale che introduce i giochi linguistici e il “significato come uso”; base teoretica dell’intera critica al frame di Penrose.

[3] Wittgenstein, L. (1953). Philosophical Investigations, §§65-71. Rationale: Sezioni specifiche sul concetto di “gioco” e somiglianze di famiglia; dimostrano come concetti funzionino senza essenze platoniche.

[4] Wittgenstein, L. (1953). Philosophical Investigations, §23. Rationale: Definizione tecnica di “gioco linguistico” come attività intrecciata con forme di vita.

[5] Wittgenstein, L. (1953). Philosophical Investigations, §309. Rationale: La metafora della mosca nella bottiglia; illustra il metodo terapeutico della filosofia wittgensteiniana.

[6] Stenvaag, S. (2025). “Il linguaggio che si morde la coda”. https://salahzar.com/2025/11/09/il-linguaggio-che-si-morde-la-coda/ Rationale: Trattamento del paradosso del mentitore come proprietà strutturale; tesi qui sottoposta a critica wittgensteiniana.

[7] Penrose, R. (1989). The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford University Press. Rationale: Prima formulazione dell’argomento gödeliano contro l’intelligenza artificiale forte; testo primario oggetto di discussione.

[8] Minsky, M. (1995). “Commentary on Roger Penrose’s ‘Shadows of the Mind’”. Psyche, 2(5). Rationale: Critica alla presupposizione di consistenza umana nell’argomento di Penrose.

[9] Feferman, S. (1996). “Penrose’s Gödelian Argument”. Psyche, 2(7). Rationale: Analisi tecnica da parte di un logico eminente; smaschera confusione tra intuizione soggettiva e processo oggettivo.

[10] McCarthy, J. (1990). “Review of The Emperor’s New Mind”. Mathematical Intelligencer, 12(1). http://www-formal.stanford.edu/jmc/reviews/penrose1/penrose1.html Rationale: Dimostra che generare frasi gödeliane è banalmente algoritmico (programma LISP di una riga).

[11] Dennett, D. C. (1989). “Review of The Emperor’s New Mind”. The Times Literary Supplement, September 29-October 5. http://cogprints.org/432/1/penrose.htm Rationale: Distingue algoritmi discendenti da emergenti; critica presupposizione di Penrose su natura algoritmica dell’AI.

[12] Penrose, R. (1994). Shadows of the Mind: A Search for the Missing Science of Consciousness. Oxford University Press. Rationale: Seconda formulazione migliorata dell’argomento; risponde ad alcune critiche al primo libro.

[13] Internet Encyclopedia of Philosophy. “Lucas-Penrose Argument about Gödel’s Theorem”. https://iep.utm.edu/lp-argue/ Rationale: Panoramica accademica completa del consenso critico sull’argomento Lucas-Penrose.

[14] OpenAI (2024). “Learning to reason with LLMs”. https://openai.com/index/learning-to-reason-with-llms/ Rationale: Annuncio ufficiale dei modelli o1; spiega architettura a catena di pensiero e reinforcement learning.

[15] OpenAI (2024). “Introducing OpenAI o1-preview”. https://openai.com/index/introducing-openai-o1-preview/ Rationale: Dati di performance su benchmark matematici (83% vs 13%); documenta salto quantitativo nelle capacità.

[16] OpenAI (2024). “Learning to reason with LLMs”. https://openai.com/index/learning-to-reason-with-llms/ Rationale: Performance su Codeforces (89° percentile); dimostra capacità di ragionamento su problemi complessi.

[17] Soto, M., et al. (2024). “System 2 Thinking in OpenAI’s o1-Preview Model: Near-Perfect Performance on a Mathematics Exam”. MDPI Technologies, 13(11):278. https://www.mdpi.com/2073-431X/13/11/278 Rationale: Studio indipendente su performance a livello PhD; conferma capacità avanzate ma identifica variabilità.

[18] Riegler, M. A. (2024). “OpenAI o1: A major leap? What does it really mean?”. Medium, October 13. https://medium.com/@michael_79773/openai-o1-a-major-leap-what-does-it-really-mean-064d1386fa1f Rationale: Analisi critica che documenta fallimento su “I am a Strange Dataset”; mostra limiti persistenti su compiti metalinguistici.

[19] Beguš, G., et al. (2024). “Large Linguistic Models: Investigating LLMs’ Metalinguistic Abilities”. arXiv:2305.00948. Rationale: Studio tecnico su capacità metalinguistiche di vari modelli; dimostra miglioramenti su ricorsione sintattica ma limiti persistenti.

[20] Turing, A. M. (1950). “Computing Machinery and Intelligence”. Mind, 59(236), 433-460. Rationale: Articolo seminale che propone il test di Turing; fondamento storico del dibattito su intelligenza artificiale.

[21] Wittgenstein, L. (1953). Philosophical Investigations, §293. Rationale: L’analogia dello scarabeo nella scatola; demolisce argomenti basati su stati mentali privati inaccessibili.


Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.