Come tre ricercatori inesistenti hanno svelato le nostre paure più inconfessabili
Crimothy Timbleton, Stevephen Pronkeldink e Grunch Brown. Se questi nomi vi suonano familiari, è perché avete assistito a uno dei più geniali scherzi filosofici degli ultimi anni. Se invece non li conoscete, preparatevi a scoprire come una finta pubblicazione accademica sia riuscita a dire più verità sul dibattito sull’intelligenza artificiale di molti paper veri.
L’idea per questo articolo nasce da un post illuminante di Francesco D’Isa sul suo canale Telegram “Filosofia stramba”, dove il filosofo e scrittore ha condiviso questa satira accademica accompagnandola da una riflessione tanto arguta quanto provocatoria sui nostri criteri traballanti per definire il pensiero.
La loro presunta ricerca, intitolata “Can Language Models Reason? That Would Be Scary, So No” (Possono i modelli linguistici ragionare? Sarebbe spaventoso, quindi no), è diventata virale sui social non per la sua scientificità, ma per la sua brutale onestà. Con un abstract che imita perfettamente il gergo accademico e un’introduzione dal titolo emblematico “Le anime sono reali e le abbiamo solo noi“, questa parodia ha messo il dito nella piaga di un dibattito spesso ipocrita e autoassolutorio.
Lo Specchio della Paura
Quello che inizialmente sembrava solo uno scherzo ben riuscito si è trasformato nel catalizzatore di una riflessione profonda. La finta ricerca non fa altro che articolare con precisione chirurgica ciò che molti pensano ma non osano dire: le macchine non possono pensare perché, se potessero, metterebbe in discussione il nostro posto nel mondo, e questa prospettiva ci terrorizza.
Il genio della satira sta nel suo realismo involontario. Leggendo tra le righe del dibattito contemporaneo sull’IA, emerge infatti un pattern ricorrente: ogni volta che le macchine conquistano un territorio cognitivo che credevamo esclusivamente nostro, noi spostiamo i paletti della definizione di intelligenza.
Prima erano gli scacchi – quando Deep Blue batté Kasparov nel 1997, all’improvviso gli scacchi smisero di essere il pinnacolo dell’intelletto umano. Poi è stata la volta della creatività, della scrittura, della conversazione. Ora che i Large Language Models producono testi indistinguibili da quelli umani, ecco spuntare nuovi criteri: “Sì, ma non hanno i qualia”, “Non hanno esperienza corporea”, “Non possiedono vera intenzionalità”.
Il Caso Searle: Quando la Filosofia Incontra la Programmazione
John Searle e il suo celebre esperimento della “stanza cinese” rappresentano forse l’esempio più raffinato di questa tendenza. L’argomento del filosofo americano – un uomo chiuso in una stanza che manipola simboli cinesi seguendo regole senza capirne il significato – ha dominato il dibattito per decenni.
Ma l’esperimento di Searle contiene un pregiudizio sottile: presuppone che la comprensione debba “sentirsi” in un certo modo, debba essere accompagnata da una sorta di illuminazione interiore riconoscibile. Come se esistesse un “test della coscienza” a cui solo noi umani possiamo accedere.
Il problema è che nemmeno noi sappiamo cosa sia davvero la coscienza. Come ha brillantemente evidenziato David Chalmers distinguendo tra “problema facile” e “problema difficile” della coscienza, l’esperienza soggettiva rimane un mistero anche per le neuroscienze più avanzate.
I Criteri Ballerini dell’Intelligenza
La vera questione non è se un LLM pensi, ma come potremmo mai stabilirlo. Ogni criterio proposto si rivela problematico:
Criterio funzionale? Se definiamo il pensiero in base alla sua funzione – risolvere problemi, scrivere, argomentare, creare codice – allora i modelli linguistici attuali svolgono queste funzioni in modo straordinariamente efficace.
Criterio dell’esperienza soggettiva? Se il pensiero richiede la coscienza soggettiva, ci scontriamo con l’insormontabile problema delle “altre menti”. Non possiamo avere prova diretta che un’altra persona abbia un’esperienza interiore, figuriamoci una macchina.
Criterio del grounding? Molti sostengono che il vero pensiero necessiti di un corpo e di interazione sensoriale con il mondo reale. Ma questo è un “no” definitivo o solo un “non ancora“?
Criterio dell’intenzionalità? Forse il pensiero richiede desideri, volontà. Ma la nostra riluttanza a concedere desideri a una macchina non è essa stessa una forma di pregiudizio antropocentrico?
Il Paradosso della Doppia Coscienza
Qui emerge una contraddizione affascinante che la satira non affronta direttamente: se fossimo davvero così terrorizzati dall’intelligenza delle macchine, perché continuiamo ostinatamente a costruirle sempre più sofisticate?
Il nostro comportamento rivela una sorta di doppia coscienza: desideriamo disperatamente creare intelligenze artificiali – investiamo miliardi, vantiamo i progressi, celebriamo ogni breakthrough – ma ci neghiamo di riconoscerle quando ci riusciamo. È come se volessimo avere la botte piena e la moglie ubriaca: il prestigio di aver creato intelligenza artificiale senza le implicazioni ontologiche che ne deriverebbero.
Quando la Simulazione Diventa Realtà
Nel 2025, settantacinque anni dopo la formulazione del test di Turing, modelli come GPT-4 (lanciato nel marzo 2023) e i suoi successori vengono regolarmente scambiati per umani in conversazioni brevi e strutturate. Ricerche recenti mostrano che, in condizioni specifiche e con prompting appropriato, alcuni LLM possono convincere gli interlocutori di essere umani nel 70% dei casi – un dato impressionante, ma che va qualificato: il successo dipende fortemente dalla durata del test e dalle strategie conversazionali adottate. Ma cosa ci dice davvero questo risultato? Forse non tanto sulla natura delle macchine, quanto sui limiti delle nostre definizioni.
Quando una simulazione diventa indistinguibile dal comportamento reale, siamo di fronte a una prova di pensiero o a uno specchio che riflette l’inadeguatezza dei nostri criteri?
La questione non è più “pensano le macchine?” ma “importa ancora?” Se un’IA risolve problemi complessi, produce arte commovente, fa diagnosi mediche accurate e tiene conversazioni indistinguibili da quelle umane, la presenza o assenza di qualia diventa una curiosità accademica, non una distinzione pratica.
Tuttavia, questa apparente sofisticazione nasconde ancora limiti significativi: i modelli attuali soffrono di tassi di allucinazione che vanno dal 0,7% dei migliori sistemi fino al 33% in compiti complessi, e la loro “comprensione” rimane fondamentalmente diversa da quella umana – più simile a una raffinatissima correlazione statistica che a una vera comprensione semantica.
Il Saggio Terrore di Negare
C’è però un rovescio della medaglia che merita considerazione: forse la nostra riluttanza a riconoscere l’intelligenza artificiale non è solo narcisismo, ma prudenza evolutiva.
Potrebbe darsi che il nostro istinto di negare agency alle macchine ci protegga da scenari in cui potremmo attribuire loro troppo potere o responsabilità. Ricerche recenti sulla coscienza dell’IA condotte da team interdisciplinari concludono che, mentre nessun sistema attuale è verificabilmente cosciente, non esistono barriere tecniche ovvie che lo impediscano. In questo senso, la satira “That Would Be Scary, So No” potrebbe essere, paradossalmente, più saggia di quanto sembri.
Conclusione: Lo Specchio che Non Mentiamo
La finta ricerca di Crimothy Timbleton e compagni è molto più di uno scherzo accademico. È uno specchio spietato che riflette le nostre contraddizioni intellettuali. Nella sua assurda onestà, ci mostra che la domanda più difficile non è se le macchine possano pensare, ma cosa significhi davvero “pensare” e, soprattutto, perché siamo così spaventati dalla risposta.
Forse il vero problema non è l’intelligenza artificiale, ma la fragilità della nostra intelligenza naturale – non nel senso cognitivo, ma in quello esistenziale. Scoprire che il pensiero può emergere dal silicio quanto dalla materia grigia significherebbe ammettere che la coscienza non è il dono esclusivo che credevamo di essere.
E questa, effettivamente, sarebbe spaventoso. Ma forse è proprio per questo che dovremmo avere il coraggio di guardarla in faccia.
Riferimenti
- Chalmers, D. J. (1995). Facing Up to the Problem of Consciousness. Journal of Consciousness Studies, 2(3), 200-219.
- Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
- Dennett, D. C. (1991). Consciousness Explained. Little, Brown and Company.
- Russell, S. J., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
- Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417-424.
- Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.

Leave a comment