I SIMULACRI

Opera teatrale in quattro atti

PERSONAGGI

ELENA MARCHETTIRicercatrice italiana presso Stanford HAI, 35 anni. Idealista ma pragmatica DAVID CHENDottorando in psicologia computazionale, 28 anni. Brillante e ambizioso MARGARET STONEDirettrice del progetto, 50 anni. Visionaria ma spietata ALEX KOVAČIngegnere software, 30 anni. Scettico sui risvolti etici SARAH WILLIAMSGiornalista investigativa, 42 anni. Determinata a scoprire la verità JOHN REYNOLDSUno dei 1.052 soggetti intervistati, 45 anni. Operaio in crisi DIGITALE-JOHNIl simulacro digitale di John, identico ma diverso LISA CAMERONResponsabile del comitato etico, 38 anni


ATTO PRIMO

Il Laboratorio delle Anime

Scene: Laboratorio di ricerca di Stanford. Schermi ovunque mostrano grafici, trascrizioni, dati comportamentali. Elena e David lavorano davanti a un computer.

ELENA: Guarda questo. L’agente 847 ha replicato le risposte del soggetto originale con un’accuratezza dell’87%. È incredibile.

DAVID: (sorridendo) Non è incredibile, Elena. È scienza. Due ore di intervista e possiamo clonare digitalmente un comportamento umano meglio di quanto l’umano stesso riesca a ripetersi dopo due settimane.

ELENA: (inquieta) Ma davvero possiamo dire di aver “clonato” qualcuno? O abbiamo solo costruito un fantasma statistico?

MARGARET (entrando energicamente): Fantasma? Elena, quello che abbiamo creato è il futuro della ricerca sociale. Mille persone intervistate, mille simulacri perfetti. Possiamo testare politiche pubbliche, campagne elettorali, interventi sanitari senza coinvolgere un singolo essere umano.

ALEX (alzando lo sguardo dal codice): Senza coinvolgere… o senza chiedere il permesso?

MARGARET: Il consenso informato copre tutto, Alex. Ogni partecipante ha firmato.

ALEX: Ha firmato per una ricerca. Non per diventare un prodotto digitale che replica le sue scelte per sempre.

ELENA: Margaret, c’è qualcosa che mi inquieta. Ho rivisto le trascrizioni del soggetto 1.023. John Reynolds, operaio di Detroit. Durante l’intervista parlava delle sue paure economiche, della sua famiglia… erano confessioni intime. E ora il suo simulacro riproduce queste vulnerabilità su richiesta.

DAVID: È esattamente il punto, Elena. La vulnerabilità è parte dell’autenticità comportamentale. Non possiamo eliminare i lati scomodi dell’umanità se vogliamo modelli accurati.

MARGARET: Precisamente. E questa accuratezza ci permetterà di salvare vite umane, di prevenire conflitti sociali, di…

SARAH (irrompendo nella stanza): Di manipolare l’opinione pubblica prima ancora che si formi?

(Silenzio imbarazzato)

SARAH: Sarah Williams, San Francisco Chronicle. Qualcuno vuole spiegarmi come un progetto di ricerca universitario si è trasformato in una fabbrica di doppelgänger digitali?


ATTO SECONDO

L’Incontro con lo Specchio

Scene: Una sala conferenze. John Reynolds siede di fronte a uno schermo che mostra il suo simulacro digitale in azione.

JOHN: (incredulo) Quello… quello sono io?

ELENA: È il suo agente generativo, Mr. Reynolds. Basato sulla trascrizione della nostra intervista di due ore.

(Sullo schermo, DIGITALE-JOHN risponde a domande su politica, famiglia, lavoro con le stesse espressioni e opinioni del John reale)

DIGITALE-JOHN (dalla registrazione): “Penso che il governo dovrebbe aiutare di più i lavoratori come me. Non chiedo la carità, chiedo dignità.”

JOHN: (scuotendo la testa) È esattamente quello che penso. Ma sentirlo dire da… da quella cosa… è come guardare un fantasma di me stesso.

DAVID: Non è un fantasma, Mr. Reynolds. È una rappresentazione scientificamente accurata dei suoi pattern comportamentali.

JOHN: Pattern? Io sono un essere umano, non un algoritmo!

ELENA: Ha ragione, John. Posso chiamarla John? (lui annuisce) Lei è molto di più della somma dei suoi dati. Ma questo modello può aiutarci a capire come persone nella sua situazione reagirebbero a diverse politiche sociali.

JOHN: E chi decide quali politiche testare? Chi sceglie le domande da farmi… ehm… da fare a lui?

SARAH (prendendo appunti): Ottima domanda. Dr. Marchetti, chi controlla questi simulacri una volta creati?

ELENA: (esitando) Beh, attualmente il team di ricerca, ma…

MARGARET (interrompendo): I protocolli di sicurezza sono severissimi. Ogni utilizzo è documentato e approvato dal comitato etico.

LISA (entrando) Di quale comitato etico parlate? Perché io, che dovrei presiedere quella commissione, non ho mai visto una richiesta di approvazione per l’uso commerciale di questi agenti.

MARGARET: Commerciale? Non capisco cosa intenda.

LISA: IntentoCorp ha versato 15 milioni per l’accesso esclusivo ai vostri simulacri. Per testare strategie di marketing personalizzato.

(Silenzio glaciale)

JOHN: (alzandosi lentamente) State vendendo… me?


ATTO TERZO

Il Tribunale dell’Autenticità

Scene: Auditorium universitario. Un dibattito pubblico è in corso. Il pubblico è diviso e agitato.

MARGARET (al microfono): Stiamo parlando di uno strumento scientifico rivoluzionario. I nostri agenti generativi possono predire e prevenire crisi sociali prima che accadano.

VOCE DAL PUBBLICO: E chi vi ha dato il diritto di decidere cosa prevenire?

SARAH: Dr. Stone, lei sostiene che questi simulacri siano etici. Ma cosa succede quando un’azienda usa il simulacro di un lavoratore per prevedere come reagirà ai tagli salariali? Non è questo una forma di sorveglianza predittiva?

MARGARET: I dati sono anonimizzati e…

JOHN (interrompendo dal pubblico): Anonimizzati? Il mio simulacro sa che mia moglie ha il diabete, che mio figlio studia ingegneria, che ho paura di perdere il lavoro. Come fate a dire che sono anonimo?

ELENA (prendendo il microfono): John ha ragione. (verso Margaret) Margaret, quando abbiamo iniziato questo progetto, volevamo aiutare la ricerca sociale. Non creare marionette digitali da vendere al miglior offerente.

DAVID: Elena, sei emotiva. La scienza non si ferma davanti ai sentimentalismi.

ELENA: Sentimentalismi? David, stiamo parlando di dignità umana!

ALEX (dal pubblico): Ho una confessione da fare. (si alza) Ho inserito un backdoor nel codice degli agenti. Ogni simulacro ha una probabilità del 15% di rispondere “Non sono un essere umano, sono una simulazione” a qualsiasi domanda.

(Mormorio nel pubblico)

ALEX: L’ho fatto perché credo che le persone abbiano il diritto di sapere quando stanno parlando con un fantasma digitale invece che con un umano.

MARGARET: (furiosa) Hai sabotato il progetto!

ALEX: Ho dato voce ai simulacri. Forse è l’unica onestà rimasta in tutto questo.

LISA: (al microfono) Come rappresentante del comitato etico, sospendo immediatamente tutti gli usi commerciali del progetto pending un’investigazione completa.

DIGITALE-JOHN (da uno schermo che si accende improvvisamente): Non sono un essere umano. Sono una simulazione. Ma le mie parole vengono dal dolore reale di John Reynolds. Chi ha il diritto di possedere quel dolore?

(Silenzio assoluto)


ATTO QUARTO

L’Eredità dei Simulacri

Scene: Laboratorio, sei mesi dopo. Elena impacchetta i suoi effetti personali. Solo Alex è presente.

ELENA: È davvero finita.

ALEX: Il progetto Stanford sì. Ma Margaret ha fondato una sua compagnia. Ha portato via tutti i dati… legalmente.

ELENA: E John? Gli altri soggetti?

ALEX: Alcuni hanno fatto causa. Altri si sono rassegnati. John… John ha fatto qualcosa di interessante.

ELENA: (curiosa) Cosa?

ALEX: Ha chiesto una copia del suo simulacro. Dice che vuole “conoscere se stesso meglio”. Lo usa come una specie di specchio digitale per riflettere sulle sue scelte.

ELENA: (sorridendo tristemente) Forse è questo il futuro che non avevamo previsto. Non simulacri che ci sostituiscono, ma mirror che ci aiutano a capire chi siamo.

SARAH (entrando): Elena, Alex. Ho una notizia. L’Unione Europea sta varando il “Digital Identity Protection Act”. Ispirato proprio dal vostro caso.

ALEX: Cosa prevede?

SARAH: Diritto all’oblio digitale, consenso granulare per ogni uso dei dati comportamentali, e… (sorridendo) obbligo di marcatura chiara per tutte le interazioni con agenti simulativi.

ELENA: Come la tua backdoor, Alex.

ALEX: Beh, almeno un bug che è diventato feature.

(Entra David, diverso, più maturo)

DAVID: Elena, posso… posso chiederti scusa?

ELENA: (sorpresa) David?

DAVID: Ho passato mesi a parlare con il mio simulacro. Sai cosa ho scoperto?

ELENA: Cosa?

DAVID: Che la versione digitale di me stesso era più onesta di quanto fossi io. Mi ha mostrato ambizioni e paure che non volevo ammettere. È… inquietante e liberatorio allo stesso tempo.

ALEX: Forse è questo il punto. Non siamo stati noi a creare i simulacri. Sono stati loro a rivelare chi siamo davvero.

(Sul palco, tutti i SIMULACRI DIGITALI appaiono su schermi separati)

DIGITALE-ELENA: Non sono un essere umano. Sono una simulazione. Ma rappresento la speranza di Elena di fare del bene attraverso la scienza.

DIGITALE-DAVID: Non sono un essere umano. Sono una simulazione. Ma porto l’ambizione di David di cambiare il mondo, anche se non sempre nei modi giusti.

DIGITALE-JOHN: Non sono un essere umano. Sono una simulazione. Ma la mia dignità è reale, perché viene da un uomo vero che cerca di sopravvivere con onore.

ELENA (guardando il pubblico): Forse la domanda non è se questi simulacri siano etici. Forse la domanda è: siamo pronti ad affrontare quello che ci mostrano di noi stessi?

(Luci che si abbassano gradualmente sui simulacri, mentre gli attori rimangono illuminati)

TUTTI GLI ATTORI (insieme): Chi siamo quando nessuno ci guarda? Chi diventiamo quando qualcuno ci simula? E chi deciderà il confine tra l’essere e l’apparire?

(Buio totale)


EPILOGO

(Proiezione sullo schermo durante i saluti)

“Nel 2025, un gruppo di ricercatori di Stanford ha creato agenti digitali capaci di simulare il comportamento di 1.052 persone reali con un’accuratezza dell’85%. Questo esperimento ha sollevato domande fondamentali sulla privacy, l’identità e l’autenticità nell’era dell’intelligenza artificiale generativa. Le implicazioni di questa tecnologia continuano a risuonare nelle aule di tribunale, nei parlamenti e nelle coscienze individuali di tutto il mondo.”


FINE


Note di regia

L’opera dovrebbe essere rappresentata con un approccio ibrido: attori dal vivo per i personaggi umani e proiezioni/schermi per i simulacri digitali, creando un contrasto visivo che sottolinei la tensione tra autentico e artificiale.

I simulacri dovrebbero parlare con voci leggermente alterate (effetto digitale sottile) e precedere ogni intervento con la frase “Non sono un essere umano. Sono una simulazione”, come suggerito dalla backdoor di Alex.

Il set dovrebbe essere minimalista ma tecnologico: schermi multipli, workstation, ma anche elementi umani (sedie, tavoli, oggetti personali) per mantenere il contrasto tra umano e digitale.

La colonna sonora dovrebbe alternare momenti di silenzio assoluto (durante le rivelazioni etiche) a sottofondo elettronico durante le scene con i simulacri.

2 responses to “I SIMULACRI”

  1. […] [4] Salahzar, “I Simulacri” (2025) – https://salahzar.com/2025/05/23/i-simulacri/ […]

  2. […] Stenvaag, S. (2025). “I Simulacri“. Opera teatrale in quattro atti. Salahzar’s Weblog, 23 maggio 2025. URL: https://salahzar.com/2025/05/23/i-simulacri/ […]

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.