Di quando Qfwfq ricordava l’origine dell’universo

Published on

in

Da bambino avevo una monografia illustrata, “La nascita dell’uomo” — editore dimenticato, copertina rigida color ocra. La sfogliavo con quel misto di attrazione e inquietudine che provavo anche per i documentari di Piero Angela quando parlavano di estinzioni di massa. Gli australopitechi disegnati a china camminavano in fila indiana su paesaggi di savana, nudi, soli, vagamente tristi. Il “primo uomo” era avvolto in un’aura mistica: non un animale, non ancora noi. A sette anni mi sembrava una cosa terribilmente seria.

Quella monografia mi ha insegnato qualcosa che ho capito solo adesso, leggendo un libro di Charles Cole. Non cercavo informazioni sui primi ominidi. Cercavo di capire cosa significasse essere umano. La differenza non è sottile. È enorme.


Cole insegna in Canada e si occupa di una domanda che sembra banale: perché cerchiamo informazioni? La risposta ovvia — per risolvere problemi — non regge, o almeno non basta. Quella di Cole è più scomoda: cerchiamo informazioni perché la nostra coscienza ci spinge a farlo. Non è un buco da riempire. È una spinta. Ce l’abbiamo da 40.000 anni e non si è mai fermata.

Il suo libro si chiama The Consciousness’ Drive e ha la struttura di un giallo: costruisce pezzo per pezzo fino al colpo di scena del capitolo 16. La tesi è che la conoscenza nuova non nasce da quello che già sappiamo, ma da quello che crediamo. Devi credere che qualcosa possa essere vero prima di poterlo sapere. Cole la chiama “belief-begets-knowledge”: la credenza viene prima della conoscenza.

Sembra strano. Ma pensaci: quando hai avuto un’idea davvero nuova, non l’hai trovata frugando tra le cose che già sapevi. L’hai intuita. Ci hai creduto prima di poterla dimostrare. Le prove sono venute dopo.


Il guaio è che siamo fatti per non fare così. Cole si appoggia a Marvin Minsky e alla sua teoria dei frame: quando affrontiamo una situazione — entrare in una stanza, andare a un compleanno, vedere un incidente — peschiamo dalla memoria uno schema pronto che ci guida. Non vediamo il mondo direttamente. Lo vediamo attraverso lo schema. Funziona benissimo: decisioni rapide, risparmio di energie.

Ma c’è un prezzo. Finiamo per vivere nello schema, non nel mondo. E lo schema contiene solo quello che già conosciamo.

Qui entra Platone. Nel Menone, Socrate si trova davanti una domanda che lo mette in difficoltà. Menone chiede: come fai a cercare qualcosa che non conosci? Non sai cosa cercare. E se lo trovi per caso, come fai a riconoscerlo?

È il paradosso di Menone. Ha 2.500 anni e non l’abbiamo ancora risolto. I nostri schemi — personali, di gruppo, di nazione — ci chiudono in un circolo. Vediamo solo quello che conferma quello che già sappiamo. L’informazione davvero nuova, quella che potrebbe cambiare tutto, non la riconosciamo. O la evitiamo.


Cole propone una via d’uscita. Non passando dal sistema di conoscenza — quello è il problema. Ma dal sistema di credenze, che è più largo, più elastico, più disposto a rischiare. Lì possiamo ipotizzare che qualcosa sia vero. Possiamo “sentire” che c’è qualcosa da capire anche se non sappiamo cosa. È lì che si apre la porta.

Serve una scintilla. Cole fa un esempio che funziona: un ciclista vede un incidente d’auto. Odia gli automobilisti — ne ha subiti troppi — quindi vede solo l’impatto, la colpa del guidatore. Ore dopo, rastrellando foglie in giardino, trova un pallone da basket. Scintilla. Si ricorda: la vittima stava correndo dietro al pallone. Cambia la sua credenza sull’incidente, e con essa cambia la sua conoscenza.

Non ha trovato informazioni nuove. Ha cambiato lo schema con cui le leggeva.


Nelle Cosmicomiche, Calvino fa raccontare l’origine dell’universo a Qfwfq, un essere che c’era. «Si capisce che si stava tutti lì, – fece il vecchio Qfwfq, – e dove, altrimenti? Che ci potesse essere lo spazio, nessuno ancora lo sapeva.» Qfwfq ricorda il momento prima del Big Bang come tu ricordi il primo giorno di scuola. Dettagli, sensazioni, il sapore di un istante irripetibile.

È la parodia perfetta di quello che Cole chiama autonoesi: la sensazione di rivivere un ricordo sapendo che è tuo. La memoria umana non è un archivio. È una macchina del tempo. Torniamo ai nostri episodi passati, li riviviamo, li modifichiamo, li usiamo per immaginare il futuro.

Calvino porta questa cosa all’assurdo cosmico. Qfwfq ricorda l’universo che non esisteva ancora. Ma l’assurdo illumina il meccanismo: la coscienza umana non si ferma ai confini del plausibile. Può credere di ricordare l’origine del mondo. E da quella credenza, costruire conoscenza.

La monografia della mia infanzia faceva lo stesso. Mi mostrava australopitechi che nessuno ha mai visto, in paesaggi tirati su con fossili e ipotesi. Io ci credevo. E da quella credenza è nato un interesse che dura ancora.


Cosa c’entra tutto questo con i modelli linguistici?

I modelli funzionano per predizione: dato un pezzo di testo, calcolano quale parola viene dopo. L’architettura transformer — il meccanismo di “attenzione” dietro GPT e simili — è bravissima a catturare relazioni tra pezzi di testo distanti. Ma l’attenzione qui è una metafora tecnica, non cognitiva. Il modello non presta attenzione. Assegna numeri.

La differenza conta. Un modello addestrato su tutto lo scibile umano può scrivere un paragrafo perfetto sul paradosso di Menone. Ma non può trovarsi nel paradosso — non può provare quell’incertezza produttiva che Socrate provocava nei suoi interlocutori. Non può credere che qualcosa sia vero prima di saperlo, perché non crede nulla. Ha solo probabilità.

Le allucinazioni — quando il modello inventa fatti con assoluta sicurezza — sono il sintomo di questa assenza. Non sono errori: sono l’esito inevitabile di un sistema che non distingue tra “probabile” e “vero”. Cole direbbe: il modello è prigioniero del suo schema statistico quanto noi dei nostri schemi mentali. Ma noi possiamo avere la scintilla che apre il circolo. Il modello no. Può solo rimescolare quello che ha già visto.

Questo vale per i modelli di oggi. Le architetture future — world models, sistemi ibridi che ragionano su rappresentazioni astratte invece che su parole — potrebbero cambiare i termini del problema. Esistono già sistemi che esplorano l’ignoto per matematica — funzioni di curiosità, campionamento stocastico. Ma esplorare per ridurre l’entropia non è cercare significato. Il risultato può sembrare lo stesso; il processo no.

Resta la domanda: la scintilla di Cole è impossibile in linea di principio per una macchina, o solo per queste macchine? Non lo sappiamo. Quello che sappiamo è che nessuna architettura attuale la prevede — non come bug da correggere, ma come funzione da implementare.


Da anni formo docenti sulle tecnologie in classe. Prima i mondi virtuali, poi le lavagne interattive, adesso l’intelligenza artificiale. La domanda che mi fanno è sempre la stessa, detta in modi diversi: “Ma questo capisce quello che dico?”

La risposta onesta è: no, non come intendi tu. Ma può sembrare che capisca, e per molti usi basta. Il problema è quando confondiamo la simulazione con la cosa vera. Quando pensiamo che un sistema che scrive testo coerente stia anche cercando significato.

I dati OCSE del 2024 dicono che solo il 25% dei docenti italiani usa l’intelligenza artificiale per lavoro — preparare lezioni, riassumere materiali, adattare contenuti. La media europea è 36%. La lettura facile è: siamo indietro per mancanza di formazione. Ma c’è un’altra lettura possibile: forse una parte di quel 75% sta facendo, senza saperlo, esattamente quello che Cole consiglierebbe — fermarsi a capire prima di adottare. Non lo sapremo finché non glielo chiediamo. E nessuno glielo sta chiedendo.

Cole ricorda che la ricerca di significato è quello che ci ha resi umani. È cominciata nelle grotte di Lascaux e Chauvet, 32.000 anni fa, quando qualcuno ha sentito il bisogno di dipingere bisonti e leoni su pareti di roccia. Non per decorare — quelle grotte erano buie, difficili da raggiungere, pericolose. Per capire. Per dare forma a qualcosa che premeva da dentro.

Quando entro in un’aula di formazione e un docente alza la mano per chiedere “ma questo capisce?”, sta facendo la stessa cosa che faceva chi dipingeva bisonti a Chauvet. Sta cercando di capire cosa ha davanti. Non vuole una risposta tecnica. Vuole sapere se può fidarsi dello strumento per il lavoro che conta: dare significato a quello che insegna.

Quel bisogno non si è mai fermato. Ha prodotto le enciclopedie della mia infanzia, i motori di ricerca, i modelli linguistici. Ma il bisogno è nostro. Gli strumenti cambiano, la spinta resta.


La monografia “La nascita dell’uomo” non mi ha insegnato niente sui fossili che non avrei potuto imparare da un’altra parte. Mi ha insegnato che volevo sapere. Che il non-sapere era insopportabile. Che il primo uomo, nudo e solo su quella savana disegnata a china, era in qualche modo io — sospeso tra l’animale e qualcos’altro, in cerca di un significato che forse non esiste ma che non possiamo smettere di cercare.

Cole ha usato 240 pagine per dire la stessa cosa con più rigore. Ma l’intuizione era già lì, in quella copertina color ocra. E forse, a sette anni, la capivo meglio.

Resta una domanda che non ho risolto, e che lascio a chi legge: quando deleghiamo ai modelli il compito di cercare informazioni per noi, cosa stiamo effettivamente cercando? Se è solo efficienza, va bene così. Se è significato, forse stiamo guardando nella direzione sbagliata.


Riferimenti

[1] Cole, C. (2018). The Consciousness’ Drive: Information Need and the Search for Meaning. Springer.

[2] Minsky, M. (1975). A Framework for Representing Knowledge. In P. H. Winston (Ed.), The Psychology of Computer Vision. McGraw-Hill.

[3] Calvino, I. (1965). Le cosmicomiche. Einaudi.

[4] OCSE (2024). TALIS 2024 Results: Italy Country Note. Dato sull’uso dell’IA: 25% docenti italiani vs 36% media OCSE.

[5] Tulving, E. (2002). Episodic Memory: From Mind to Brain. Annual Review of Psychology, 53(1), 1-25.

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.