Il Profeta di ELIZA 50 anni dopo.

Published on

in

,

Quando Weizenbaum Predisse il Nostro Futuro Algoritmico

Come un pioniere dell’informatica degli anni ’80 aveva già capito tutto quello che oggi fingiamo di scoprire sull’intelligenza artificiale

Esiste un momento preciso nella storia dell’informatica in cui qualcuno alza la mano e dice: «Scusate, ma non è che stiamo prendendo una strada sbagliata?». Quel momento porta il nome di Joseph Weizenbaum, e le sue parole suonano oggi come una profezia che abbiamo accuratamente ignorato per quarant’anni.

In un’intervista che sembra scritta ieri (ma risale agli anni ’80), il creatore di ELIZA – il primo chatbot della storia – metteva in guardia contro quello che chiamava il «pericolo di un’informatica ridotta a feticcio culturale». Leggendola oggi, mentre discutiamo febbricitamente di GPT e LLM, viene da chiedersi: ma questo tizio aveva una macchina del tempo?

Il Virus Linguistico dei Computer

Weizenbaum aveva intuito qualcosa che oggi vediamo dispiegarsi sotto i nostri occhi: il linguaggio informatico non si limita a descrivere processi tecnici, ma finisce per modellare il nostro modo di pensare. Come osservava nell’intervista:

«La terminologia che usano — file, directory, edit — finisce col contaminare il modo di esprimersi. Io vedo continuamente persone che, lavorando col computer, adottano inconsapevolmente espressioni e strutture mentali proprie del software».

Oggi non parliamo più solo di “file” e “directory”: diciamo che il nostro cervello “processa” informazioni, che abbiamo bisogno di “input” per prendere decisioni, che dobbiamo “debuggare” i nostri pensieri. E quando ChatGPT ci risponde, inconsciamente adottiamo la sua struttura argomentativa: punti elenco, premesse sistematiche, conclusioni ordinate.

Siamo diventati tutti un po’ più algoritmo e un po’ meno umani?

L’Illusione di ELIZA e il Nostro Presente

Il punto più sconcertante dell’intervista riguarda ELIZA, il programma che Weizenbaum stesso aveva creato per simulare uno psicoterapeuta:

«Molte persone prendevano sul serio quelle conversazioni, come se parlassero davvero con un essere umano. Questo mi fece capire quanto sia facile proiettare emozioni e aspettative su una macchina».

Sostituisci “ELIZA” con “ChatGPT” e hai una descrizione perfetta del 2025. La differenza è che nel frattempo abbiamo sviluppato una straordinaria capacità di razionalizzare questa proiezione: non siamo ingenui utenti che confondono la macchina con l’umano, siamo sofisticati utenti che sanno benissimo che è una macchina, ma la trattano comunque come se fosse intelligente.

È più grave? Forse sì. Perché quando sai di essere nell’illusione ma scegli di rimanerci, quella non è più ingenuità: è complicità.

La Scuola Come Addestramento Tecnico

Quarant’anni fa Weizenbaum temeva che «l’educazione al computer diventi addestramento tecnico, non formazione culturale». Oggi, mentre le università introducono corsi obbligatori di “AI literacy” e le scuole elementari insegnano il coding, la sua preoccupazione suona profetica.

Non è che sia sbagliato insegnare la tecnologia – il problema è come la insegniamo. Quando riduciamo l’educazione all’AI a “come usare ChatGPT per studiare meglio” o “come scrivere prompt efficaci”, stiamo esattamente facendo quello che Weizenbaum temeva: addestramento tecnico mascherato da formazione culturale.

Dovremmo invece chiederci: che tipo di pensiero stiamo formando? Che rapporto con la conoscenza stiamo costruendo? Che idea di intelligenza stiamo trasmettendo?

Il Paradosso dell’Intelligenza Artificiale

Ma la chicca dell’intervista arriva alla fine, con una distinzione che dovremmo incidere nel marmo:

«Non credo in una macchina che pensi come un uomo. Il pericolo vero è che siano gli uomini a pensare come macchine».

Ecco il punto: non stiamo assistendo al trionfo dell’intelligenza artificiale, ma al trionfo dell’artificiosità dell’intelligenza. Non sono i computer a diventare più umani – siamo noi a diventare più computazionali.

Pensiamo per algoritmi: problema → analisi → soluzione ottimale. Processiamo le emozioni come se fossero dati da elaborare. Misuriamo le relazioni in termini di “engagement” e “feedback”. Quando qualcuno ci contraddice, cerchiamo di “debuggare” la sua posizione invece di comprenderla.

Oltre l’Illusione Tecnologica

Weizenbaum faceva un parallelo illuminante con la televisione: «All’inizio si pensava che avrebbe educato e informato le masse. Invece ha spesso banalizzato il linguaggio e abbassato il livello del dibattito pubblico». Con l’AI il meccanismo è simile ma, come notava lui stesso, «più subdolo, perché penetra direttamente nei nostri processi mentali».

La televisione ha cambiato cosa pensiamo; l’AI rischia di cambiare come pensiamo.

Non serve essere luddisti per riconoscere che questo solleva qualche domanda interessante. L’intelligenza artificiale è uno strumento straordinario – ma solo se rimane uno strumento. Il problema nasce quando diventa il nostro modello di intelligenza, quando iniziamo a pensare che il modo in cui “ragiona” un LLM sia il modo corretto di ragionare.

La Resistenza Necessaria

Forse la lezione più importante dell’intervista a Weizenbaum non è tecnica, ma culturale: abbiamo bisogno di preservare spazi di pensiero che non siano ottimizzati, algoritmizzati, processati. Abbiamo bisogno di mantenere vive forme di intelligenza che siano genuinamente umane – intuitive, contraddittorie, inefficienti, creative in modi che nessun modello può replicare.

Non si tratta di rifiutare la tecnologia, ma di non farsi rifiutare da essa. Di usarla senza lasciare che lei usi noi. Di rimanere umani nell’epoca delle macchine intelligenti.

Perché, come aveva capito Weizenbaum quarant’anni fa, il vero pericolo non è che le macchine diventino troppo intelligenti. È che noi diventiamo troppo meccanici.


Riferimenti:

  • Intervista a Joseph Weizenbaum (anni ’80), trascrizione originale
  • Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. W.H. Freeman
  • Turkle, S. (1984). The Second Self: Computers and the Human Spirit. Simon & Schuster

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.