Quando Weizenbaum Predisse il Nostro Futuro Algoritmico
Come un pioniere dell’informatica degli anni ’80 aveva già capito tutto quello che oggi fingiamo di scoprire sull’intelligenza artificiale
Esiste un momento preciso nella storia dell’informatica in cui qualcuno alza la mano e dice: «Scusate, ma non è che stiamo prendendo una strada sbagliata?». Quel momento porta il nome di Joseph Weizenbaum, e le sue parole suonano oggi come una profezia che abbiamo accuratamente ignorato per quarant’anni.
In un’intervista che sembra scritta ieri (ma risale agli anni ’80), il creatore di ELIZA – il primo chatbot della storia – metteva in guardia contro quello che chiamava il «pericolo di un’informatica ridotta a feticcio culturale». Leggendola oggi, mentre discutiamo febbricitamente di GPT e LLM, viene da chiedersi: ma questo tizio aveva una macchina del tempo?
Il Virus Linguistico dei Computer
Weizenbaum aveva intuito qualcosa che oggi vediamo dispiegarsi sotto i nostri occhi: il linguaggio informatico non si limita a descrivere processi tecnici, ma finisce per modellare il nostro modo di pensare. Come osservava nell’intervista:
«La terminologia che usano — file, directory, edit — finisce col contaminare il modo di esprimersi. Io vedo continuamente persone che, lavorando col computer, adottano inconsapevolmente espressioni e strutture mentali proprie del software».
Oggi non parliamo più solo di “file” e “directory”: diciamo che il nostro cervello “processa” informazioni, che abbiamo bisogno di “input” per prendere decisioni, che dobbiamo “debuggare” i nostri pensieri. E quando ChatGPT ci risponde, inconsciamente adottiamo la sua struttura argomentativa: punti elenco, premesse sistematiche, conclusioni ordinate.
Siamo diventati tutti un po’ più algoritmo e un po’ meno umani?
L’Illusione di ELIZA e il Nostro Presente
Il punto più sconcertante dell’intervista riguarda ELIZA, il programma che Weizenbaum stesso aveva creato per simulare uno psicoterapeuta:
«Molte persone prendevano sul serio quelle conversazioni, come se parlassero davvero con un essere umano. Questo mi fece capire quanto sia facile proiettare emozioni e aspettative su una macchina».
Sostituisci “ELIZA” con “ChatGPT” e hai una descrizione perfetta del 2025. La differenza è che nel frattempo abbiamo sviluppato una straordinaria capacità di razionalizzare questa proiezione: non siamo ingenui utenti che confondono la macchina con l’umano, siamo sofisticati utenti che sanno benissimo che è una macchina, ma la trattano comunque come se fosse intelligente.
È più grave? Forse sì. Perché quando sai di essere nell’illusione ma scegli di rimanerci, quella non è più ingenuità: è complicità.
La Scuola Come Addestramento Tecnico
Quarant’anni fa Weizenbaum temeva che «l’educazione al computer diventi addestramento tecnico, non formazione culturale». Oggi, mentre le università introducono corsi obbligatori di “AI literacy” e le scuole elementari insegnano il coding, la sua preoccupazione suona profetica.
Non è che sia sbagliato insegnare la tecnologia – il problema è come la insegniamo. Quando riduciamo l’educazione all’AI a “come usare ChatGPT per studiare meglio” o “come scrivere prompt efficaci”, stiamo esattamente facendo quello che Weizenbaum temeva: addestramento tecnico mascherato da formazione culturale.
Dovremmo invece chiederci: che tipo di pensiero stiamo formando? Che rapporto con la conoscenza stiamo costruendo? Che idea di intelligenza stiamo trasmettendo?
Il Paradosso dell’Intelligenza Artificiale
Ma la chicca dell’intervista arriva alla fine, con una distinzione che dovremmo incidere nel marmo:
«Non credo in una macchina che pensi come un uomo. Il pericolo vero è che siano gli uomini a pensare come macchine».
Ecco il punto: non stiamo assistendo al trionfo dell’intelligenza artificiale, ma al trionfo dell’artificiosità dell’intelligenza. Non sono i computer a diventare più umani – siamo noi a diventare più computazionali.
Pensiamo per algoritmi: problema → analisi → soluzione ottimale. Processiamo le emozioni come se fossero dati da elaborare. Misuriamo le relazioni in termini di “engagement” e “feedback”. Quando qualcuno ci contraddice, cerchiamo di “debuggare” la sua posizione invece di comprenderla.
Oltre l’Illusione Tecnologica
Weizenbaum faceva un parallelo illuminante con la televisione: «All’inizio si pensava che avrebbe educato e informato le masse. Invece ha spesso banalizzato il linguaggio e abbassato il livello del dibattito pubblico». Con l’AI il meccanismo è simile ma, come notava lui stesso, «più subdolo, perché penetra direttamente nei nostri processi mentali».
La televisione ha cambiato cosa pensiamo; l’AI rischia di cambiare come pensiamo.
Non serve essere luddisti per riconoscere che questo solleva qualche domanda interessante. L’intelligenza artificiale è uno strumento straordinario – ma solo se rimane uno strumento. Il problema nasce quando diventa il nostro modello di intelligenza, quando iniziamo a pensare che il modo in cui “ragiona” un LLM sia il modo corretto di ragionare.
La Resistenza Necessaria
Forse la lezione più importante dell’intervista a Weizenbaum non è tecnica, ma culturale: abbiamo bisogno di preservare spazi di pensiero che non siano ottimizzati, algoritmizzati, processati. Abbiamo bisogno di mantenere vive forme di intelligenza che siano genuinamente umane – intuitive, contraddittorie, inefficienti, creative in modi che nessun modello può replicare.
Non si tratta di rifiutare la tecnologia, ma di non farsi rifiutare da essa. Di usarla senza lasciare che lei usi noi. Di rimanere umani nell’epoca delle macchine intelligenti.
Perché, come aveva capito Weizenbaum quarant’anni fa, il vero pericolo non è che le macchine diventino troppo intelligenti. È che noi diventiamo troppo meccanici.
Riferimenti:
- Intervista a Joseph Weizenbaum (anni ’80), trascrizione originale
- Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. W.H. Freeman
- Turkle, S. (1984). The Second Self: Computers and the Human Spirit. Simon & Schuster

Leave a comment