Quando l’AI chiede il permesso

Published on

in

Il Sondaggio di Gradimento per l’Apocalisse

Come Stanford ha scoperto che i lavoratori vogliono essere consultati prima di essere sostituiti. [[analisi fatta a partire da https://arxiv.org/pdf/2506.06576 usando https://github.com/blazickjp/arxiv-mcp-server e sequential thinking ]]

Preambolo: la democrazia nell’era delle macchine pensanti

Immaginate la scena: siete nel vostro ufficio, tranquilli, quando arriva un ricercatore di Stanford con un iPad e un sorriso cordiale. “Buongiorno, sono qui per chiederle: preferisce essere sostituito da un robot gradualmente o tutto d’un colpo?” E voi, colti di sorpresa, rispondete: “Beh, gradualmente, ma solo per le cose noiose, eh?”

Ecco, questo è più o meno quello che hanno fatto Yijia Shao, Erik Brynjolfsson e colleghi nel loro recente paper “Future of Work with AI Agents”. Con la serietà accademica che contraddistingue Stanford, hanno intervistato 1.500 lavoratori per capire cosa vogliono che l’AI faccia per loro. È un po’ come chiedere ai tacchini cosa preferiscono per il menù del Ringraziamento, ma con più metodo scientifico.

L’Umanesimo Digitale Incontra il Mercato del Lavoro

Il loro studio si inserisce perfettamente nella cornice dell’umanesimo digitale – quella corrente di pensiero che sostiene che la tecnologia debba servire l’uomo, non viceversa. Nobile principio, condiviso da tutti, almeno fino a quando non si tratta di rinunciare alla comodità di Amazon o alla dopamina di TikTok.

Il Manifesto di Vienna per l’Umanesimo Digitale proclama solennemente che “le decisioni le cui conseguenze possono influire sui diritti umani devono continuare a essere prese dalle persone”. Bellissimo sulla carta, ma poi ti accorgi che la persona che decide se il tuo mutuo viene approvato è un algoritmo di nome DeepCredit_v2.3, e ti chiedi dove sia finito tutto quell’umanesimo.

La Human Agency Scale: quantificare l’inquantificabile

La vera perla del paper è la Human Agency Scale (HAS) – un tentativo di misurare scientificamente quanto controllo vogliono mantenere i lavoratori. È come cercare di quantificare l’amore con un termometro, ma con più statistiche e meno poesia.

I ricercatori hanno scoperto che i lavoratori “preferiscono che l’AI gestisca task ripetitivi ma vogliono mantenere oversight, resistendo all’automazione completa per lavoro creativo o interpersonale”. In altre parole: “Sì all’AI per fare le fotocopie, no all’AI per scrivere i miei capolavori”. Una distinzione che Michelangelo avrebbe sicuramente apprezzato, se avesse avuto a che fare con PowerPoint.

Il Paradosso di Brynjolfsson: dal “Second Machine Age” al “Third Referendum”

Non è casuale che uno dei coautori sia Erik Brynjolfsson, l’economista che nel 2014 ci aveva già avvertito dell’arrivo della “Second Machine Age”. All’epoca sembrava un visionario apocalittico. Oggi, con ChatGPT che scrive codice e DALL-E che dipinge, sembra più un ottimista prudente.

La sua evoluzione da MIT a Stanford riflette un cambio di paradigma interessante: dalla previsione economica deterministica (“l’AI sostituirà X% di lavori”) alla consultazione democratica (“chiediamo ai lavoratori cosa vogliono”). È il passaggio dal “Vi dico cosa succederà” al “Cosa vi piacerebbe che succedesse?”

Un po’ come se Cassandra, dopo anni di profezie ignorate, avesse deciso di fare un sondaggio su Delphi: “Preferite la caduta di Troia di martedì o di mercoledì?”

L’Ironia della Scelta

C’è qualcosa di deliziosamente ironico nell’idea che possiamo “negoziare” il futuro del lavoro con l’AI. È come se i dinosauri avessero potuto votare sulla velocità dell’asteroide: “Propongo un impatto graduale, con un periodo di transizione di 65 milioni di anni”.

Il paper documenta che i lavoratori vogliono oversight e controllo, ma questo significa progettare sistemi AI deliberatamente “subottimali” dal punto di vista tecnico. È come mettere il limitatore di velocità su una Ferrari perché i guidatori si sentono più sicuri. Funziona, ma poi non chiamatela più Ferrari.

La Democrazia Digitale: quando la partecipazione diventa performance

L’approccio di Stanford è encomiabile: invece di decidere dall’alto cosa è meglio per i lavoratori, li consulta direttamente. È democrazia digitale in azione. Il problema è che spesso la democrazia produce risultati subottimali – chiedete ai britannici com’è andata con la Brexit.

Il rischio è che questa consultazione diventi una performance democratica per legittimare decisioni già prese. Un po’ come quando l’azienda organizza un brainstorming sui tagli al personale e poi sceglie comunque l’opzione più economica, ma almeno tutti si sono sentiti “coinvolti nel processo”.

Il Soggetto Umanistico nell’Era degli Algoritmi

L’umanesimo digitale presuppone l’esistenza di un soggetto umano razionale con preferenze stabili e autentiche. Ma l’economia comportamentale ci insegna che le nostre preferenze sono instabili, contestuali e spesso irrazionali.

Quando un lavoratore dice “voglio controllo su X ma non su Y”, questo riflette la sua vera natura o è il risultato di condizionamenti sociali e culturali? È come chiedere a un teenager cosa vuole fare da grande: la risposta cambierà tre volte prima di finire la frase.

L’Interdisciplinarietà come Babel Accademico

Il Manifesto di Vienna chiede che “le discipline tecnico-scientifiche collaborino con le scienze sociali e umane”. Il paper di Stanford sembra realizzare questo sogno: computer science + psicologia + economia in un’orgia interdisciplinare.

Ma l’interdisciplinarietà può diventare un Babel accademico se non si affrontano le tensioni epistemologiche profonde. Come si concilia la visione economica dell’homo oeconomicus con quella sociologica dell’attore socialmente situato? È come cercare di organizzare una cena tra vegani e carnivori: alla fine mangiano tutti insalata, ma nessuno è davvero soddisfatto.

Il Paradosso Temporale: preferenze che evolvono

C’è un paradosso che il paper non affronta: le preferenze dei lavoratori si adattano all’esperienza. Un avvocato che inizialmente resiste all’AI per la ricerca legale potrebbe scoprire che liberarlo da questa attività gli permette di concentrarsi su aspetti più creativi.

È il classico problema della “preference adaptation”: le persone non sanno cosa vogliono finché non lo provano. È come chiedere a qualcuno se gli piace il sushi prima che lo assaggi – la risposta sarà inevitabilmente condizionata dai pregiudizi, non dall’esperienza.

La Dimensione Culturale: ogni paese il suo algoritmo

Il paper si concentra sui lavoratori statunitensi, ma le preferenze sull’automazione variano drasticamente tra culture. In Giappone c’è maggiore accettazione dei robot in ruoli di cura, mentre in Italia potrebbe esserci più resistenza. In Germania la Mitbestimmung offre ai lavoratori più voce nelle decisioni aziendali.

È come se ogni cultura avesse il suo “rapporto edipico” con la tecnologia: gli americani vogliono controllare tutto, i giapponesi accettano di essere guidati, i tedeschi vogliono co-decidere, gli italiani… beh, gli italiani vogliono che funzioni, possibilmente senza dover leggere il manuale.

La Proposta: verso un Umanesimo Digitale Processuale

Invece di cercare di preservare un’essenza umana immutabile, l’umanesimo digitale dovrebbe concentrarsi sui processi di co-evoluzione tra umani e tecnologie. Il paper di Shao ha il merito di aver reso questo processo visibile, anche se forse non nel modo che intendeva.

L’umanesimo digitale del futuro non sarà la difesa di un soggetto umano predato, ma la co-costruzione di nuove forme di soggettività umana-tecnologica. È come imparare a ballare il tango con un partner che cambia continuamente passo: l’importante non è mantenere la posizione iniziale, ma trovare un nuovo equilibrio dinamico.

Conclusione: l’Umano come Work in Progress

Il Manifesto di Vienna conclude drammaticamente: “Siamo a un bivio per il nostro futuro; dobbiamo agire subito e scegliere la direzione giusta!” Ma forse la metafora del bivio è fuorviante. Non c’è una “direzione giusta” predeterminata, ma un processo continuo di negoziazione tra possibilità tecniche e aspirazioni umane.

Il paper di Shao e Brynjolfsson ha il merito di aver reso questo processo democratico e trasparente. Il fatto che sia anche leggermente ingenuo non toglie valore al tentativo. È come organizzare elezioni libere in un paese che non ha mai conosciuto la democrazia: il risultato sarà imperfetto, ma il processo stesso è educativo.

Il futuro non è la vittoria dell’umano sulla macchina, né il contrario. È l’invenzione di nuove forme di esistenza che rendono obsoleta la distinzione stessa. E forse, alla fine, scopriremo che la domanda non era mai stata “Cosa vuoi che faccia l’AI?” ma “Cosa vuoi diventare tu?”

Ma per ora, accontentiamoci di sapere che almeno qualcuno ha chiesto il permesso prima di cambiare il mondo. È già qualcosa.


“La tecnologia è meglio quando avvicina le persone” – diceva Steve Jobs. Non specificava se questo valesse anche per i licenziamenti automatizzati, ma l’intenzione era buona.

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.