Digital Humanism

Published on

in

Una Risposta Umanistica alla Rivoluzione Digitale

Introduzione

La rivoluzione digitale ha trasformato radicalmente il nostro modo di vivere, comunicare e interagire con il mondo. Come sosteneva Umberto Eco già nel 1996, non siamo più semplicemente spettatori dei cambiamenti tecnologici, ma ne siamo diventati protagonisti attivi, sebbene non sempre consapevoli. L’avvento della digitalizzazione ha portato con sé innumerevoli progressi e possibilità, ma anche una serie di sfide complesse che vanno ben oltre la mera tecnologia.

Il Digital Humanism si propone come un approccio fondamentale per descrivere, analizzare e, soprattutto, influenzare la complessa interazione tra tecnologia e umanità, con l’obiettivo di una società e di una vita migliori, nel pieno rispetto dei diritti umani universali. Questo paradigma emerge dalla consapevolezza che, come affermato dal fondatore del Web Tim Berners-Lee, “il sistema sta fallendo” – alludendo ai problemi contemporanei come la monopolizzazione del Web, la diffusione di opinioni estremiste orchestrate dai social media, la formazione di filter bubble, la perdita di privacy e la crescente sorveglianza digitale.

Questo approccio riconosce che, sebbene gli esseri umani abbiano causato molti dei propri problemi, sono anche i potenziali creatori delle soluzioni. Tuttavia, la tecnologia è vista solo come una parte della soluzione, e non come la soluzione stessa. Come sottolineato da Luciano Floridi, la tecnologia non è neutrale ma incorpora sempre valori, norme, interessi economici e assunzioni su come il mondo dovrebbe essere.

Parte 1: La centralità dell’essere umano e della società nel progetto digitale

Il Digital Humanism pone al centro l’essere umano e la società, riconoscendo che molte problematiche e opportunità della digitalizzazione non sono di natura esclusivamente tecnica, ma sono strettamente legate a questioni strutturali, economiche, sociali e politiche. Il Manifesto di Vienna sul Digital Humanism del 2019, firmato da numerosi leader mondiali, dichiara esplicitamente che dobbiamo “plasmare le tecnologie in accordo con i valori e i bisogni umani, invece di permettere alle tecnologie di plasmare gli umani“.

Problemi prevalenti come il bias, l’equità o la concentrazione economica ne sono esempi lampanti. Nel contesto italiano, ricercatori come Carlo Ghezzi del Politecnico di Milano, tra i firmatari del Manifesto di Vienna, sottolineano come le tecnologie digitali stiano ridefinendo la nostra stessa comprensione di cosa significhi essere umani. Le questioni etiche emergenti dall’uso dell’intelligenza artificiale non possono essere ridotte a problemi meramente tecnici, ma richiedono un approccio interdisciplinare che coinvolga filosofi, sociologi, psicologi, artisti e cittadini.

La progettazione e l’implementazione di sistemi sostenibili incentrati sull’uomo e sulla società rappresentano sfide trasversali che richiederanno anche un impegno politico e una cooperazione tra discipline e attività diverse, dalla ricerca all’azione politica. I principi cardine del Manifesto includono:

  1. Le tecnologie digitali devono essere progettate per promuovere democrazia e inclusione
  2. La privacy e la libertà di espressione sono valori essenziali per la democrazia
  3. È necessario stabilire regolamentazioni efficaci basate su un ampio discorso pubblico
  4. I regolatori devono intervenire contro i monopoli tecnologici
  5. Le decisioni con conseguenze sui diritti umani devono continuare a essere prese da esseri umani

In definitiva, non si tratta solo di tecnologia, ma di società, politica e governance, che rimangono sforzi generati dall’uomo.

Parte 2: Le sfide della digitalizzazione e le risposte del Digital Humanism

La digitalizzazione presenta diverse sfide critiche e interconnesse, come evidenziato dalla roadmap di ricerca e innovazione del Digital Humanism. Il documento strategico pubblicato nel 2022 dalla Digital Humanism Initiative identifica tre pilastri fondamentali per integrare gli ideali dell’umanesimo digitale nella società: Ricerca e Sviluppo, Innovazione ed Educazione.

Queste includono questioni relative all’intelligenza artificiale e al controllo umano, al lavoro e all’automazione, alla sorveglianza, alle piattaforme e ai monopoli, ai media online e alle fake news, alla sovranità digitale, all’ambiente e alla sostenibilità. Come osservato da Guglielmo Tamburrini dell’Università di Napoli, l’IA sta giocando ruoli sempre più ambivalenti nelle sfide globali come la crisi climatica e la preservazione della pace internazionale.

Da un lato, i modelli di IA possono contribuire a identificare modelli di consumo energetico e relative misure di mitigazione del riscaldamento climatico. Dall’altro, l’addestramento dei modelli di IA e la gestione dei big data producono un’impronta di carbonio considerevole. Studi recenti mostrano che l’addestramento di modelli linguistici avanzati genera un’impronta carbonica significativa. Questo solleva importanti domande di policy: dovremmo stabilire limiti quantitativi al consumo energetico per l’addestramento dei modelli di IA? Come identificare e distribuire equamente quote di carbonio per l’IA a livello nazionale e internazionale?

Ulteriori sfide riguardano l’explainability, la trasparenza, la privacy, la personalizzazione, la fairness, le norme e l’etica, l’accountability dei sistemi e dei fornitori, la cooperazione e il controllo tra uomo e macchina, gli approcci partecipativi e la sicurezza. Nel contesto della sicurezza internazionale, i sistemi d’arma autonomi sollevano preoccupazioni significative riguardo alla protezione della vita umana e della dignità. I sistemi percettivi di IA sono ancora vulnerabili a errori di classificazione che potrebbero portare a gravi violazioni del diritto umanitario internazionale.

Affrontare queste sfide richiede uno scambio tra varie discipline, dall’analisi allo sviluppo di nuove tecnologie e alla loro adozione pratica. Il Digital Humanism propone un approccio multidisciplinare che superi i silos disciplinari tipici dell’accademia e dell’industria, promuovendo la collaborazione tra informatici, filosofi, sociologi, economisti, giuristi e altri esperti.

Parte 3: Il ruolo dell’educazione e della consapevolezza nell’era digitale

È cruciale discutere l’umanesimo e l’Illuminismo nell’era dell’IA e della crescente digitalizzazione, con l’ideale di educazione in primo piano. Come sosteneva Maria Montessori, l’educazione non è ciò che fa l’insegnante, ma un processo naturale che si sviluppa spontaneamente nell’essere umano. Nel contesto del Digital Humanism, questo significa promuovere un approccio educativo che combini competenze tecniche e consapevolezza sociale.

L’umanesimo e l’Illuminismo si basano su presupposti filosofici e antropologici, ma si realizzano nella pratica educativa, nella politica e nella formazione delle relazioni sociali. Nella società contemporanea, caratterizzata da quella che Enrico Nardelli definisce “la rivoluzione informatica“, assistiamo all’emergere di una nuova generazione di macchine radicalmente diverse dalle macchine industriali. Non più semplici amplificatori delle capacità fisiche degli esseri umani, ma “macchine cognitive” che operano a un livello che fino ad ora era dominio esclusivo delle persone.

Gli umanisti di tutte le epoche credevano che la partecipazione e l’uguaglianza potessero essere raggiunte attraverso l’educazione e che lo stato avesse la responsabilità di fornire pari opportunità educative, pur non uniformi, a tutti. Nardelli sottolinea che, così come i curricula scolastici sono cambiati in tutto il mondo in seguito alla rivoluzione industriale per includere l’educazione scientifica, ora dovrebbero evolversi per rispondere alla rivoluzione informatica.

In questo contesto, l’educazione all’informatica assume un ruolo fondamentale per permettere ai cittadini di partecipare in modo informato alla vita sociale e alle discussioni riguardanti le scelte tecnologiche. Tuttavia, l’educazione non dovrebbe limitarsi alle competenze digitali operative, ma concentrarsi sui concetti e principi fondamentali della disciplina. Come affermava Leonardo da Vinci: “Quelli che s’innamorano di pratica senza scienza sono come il nocchiere, che entra in nave senza timone o bussola, che mai ha certezza dove si vada“.

Il Manifesto di Vienna afferma chiaramente che “l’educazione sull’informatica e il suo impatto sociale deve iniziare il prima possibile. Gli studenti dovrebbero imparare a combinare le competenze tecnologiche con la consapevolezza delle questioni etiche e sociali in gioco”. È fondamentale che gli studenti comprendano fin dai primi anni che ogni scelta tecnologica, dalle più elementari riguardanti gli elementi da rappresentare a quelle che decidono le regole per l’elaborazione stessa, “è il risultato di un processo decisionale umano e quindi priva dell’oggettività assoluta che troppo spesso è associata ai processi decisionali algoritmici”.

Un quadro di riferimento per l’informatica nelle scuole identifica vari obiettivi di competenza che tutti gli studenti dovrebbero raggiungere, prestando attenzione anche agli aspetti sociali delle tecnologie digitali. Questi includono la comprensione dei concetti fondamentali dell’informatica, lo sviluppo del pensiero computazionale, l’acquisizione di competenze nell’uso delle tecnologie digitali, la consapevolezza dell’impatto sociale delle tecnologie e lo sviluppo di attitudini critiche verso le stesse.

Parte 4: Approcci etici e responsabili per un futuro digitale umano-centrico

L’etica dell’IA e delle tecnologie responsabili è un tema centrale nel Digital Humanism. Come evidenziato nelle linee guida etiche per un’IA affidabile pubblicate dalla Commissione Europea nel 2019, i sistemi di IA dovrebbero essere valutati in base al loro impatto sulla “sostenibilità“, intesa come un insieme di obiettivi in continua evoluzione, inclusi quelli stabiliti dagli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite.

È fondamentale plasmare le tecnologie in base ai valori e ai bisogni umani, invece di permettere alle tecnologie di plasmare gli umani. Questo richiede un cambio di paradigma nel modo in cui concepiamo e sviluppiamo le tecnologie digitali. L’approccio “tecno-determinista“, che vede l’innovazione tecnologica come una forza autonoma che plasma la società, deve essere sostituito da un approccio “tecno-umanista“, che riconosce il ruolo attivo degli esseri umani nel dare forma alle tecnologie in accordo con i propri valori e bisogni.

Questo implica considerare principi come la fairness, che richiede di garantire che i sistemi di IA non discriminino individui o gruppi sulla base di caratteristiche protette come genere, etnia, religione o status socioeconomico. La fairness algoritmica è una sfida complessa che richiede approcci interdisciplinari, combinando competenze tecniche, giuridiche, filosofiche e sociologiche.

È necessario sviluppare misure di supervisione come l’human-in-the-loop (HITL), human-on-the-loop (HOTL) o human-in-command (HIC), che garantiscono diversi livelli di controllo umano sui sistemi automatizzati, come delineato nel White Paper sull’Intelligenza Artificiale della Commissione Europea. Questi approcci assicurano che, nonostante l’automazione, l’intervento umano rimanga possibile e significativo.

Occorre inoltre affrontare la questione della responsabilità per le azioni e le conseguenze dannose. Come sottolineato dal filosofo Hans Jonas nel suo “Das Prinzip Verantwortung” (1979), l’avvento di tecnologie potenti richiede un’etica della responsabilità che tenga conto delle conseguenze future delle nostre azioni. Nel contesto delle tecnologie digitali, questo significa che gli sviluppatori, i produttori e gli utenti di sistemi di IA devono assumersi la responsabilità per le conseguenze delle loro creazioni e del loro utilizzo.

L’incorporamento di valori nello sviluppo del software su base casistica e adattata al contesto è essenziale per ottenere prodotti eticamente progettati. Il Value Sensitive Design (VSD) è un approccio metodologico che integra considerazioni etiche in tutte le fasi del processo di progettazione, dall’analisi dei requisiti alla valutazione. Attraverso il VSD, i valori umani come la privacy, l’autonomia, la fiducia e la giustizia diventano parte integrante della progettazione tecnologica.

Inoltre, è necessario considerare approcci regolatori per affrontare le implicazioni etiche e legali delle tecnologie digitali. La regolamentazione dell’IA sta emergendo come un campo dinamico, con iniziative significative come la proposta di Regolamento sull’IA dell’Unione Europea, che propone un approccio basato sul rischio per regolamentare i sistemi di IA. L’approccio europeo, in linea con i principi del Digital Humanism, mira a garantire che l’IA rimanga al servizio dell’umanità e non viceversa.

Conclusioni

Il Digital Humanism rappresenta una risposta costruttiva agli sviluppi della digitalizzazione, mirando a influenzare la complessa interazione tra tecnologia e umanità per una società migliore. In un contesto in cui le tecnologie digitali stanno ridefinendo le relazioni tra persone, società, natura e macchine, il Digital Humanism emerge come un faro per guidare lo sviluppo tecnologico in una direzione che rispetti e valorizzi la dignità umana.

Riconosce le enormi potenzialità della tecnologia, ma ne sottolinea anche le questioni critiche interconnesse. Come ha scritto lo storico della tecnologia Melvin Kranzberg, “la tecnologia non è né buona né cattiva, né è neutrale“. Il Digital Humanism abbraccia questa complessità, evitando sia l’ottimismo tecnologico ingenuo che il pessimismo luddista, e proponendo invece un approccio critico e costruttivo.

Attraverso la centralità dell’essere umano e della società, l’analisi delle sfide, il ruolo cruciale dell’educazione e della consapevolezza, e l’adozione di approcci etici e responsabili, il Digital Humanism si propone come una guida per un futuro digitale che rispetti pienamente i diritti umani e promuova il benessere collettivo. Come sosteneva il filosofo italiano Giambattista Vico, “la natura delle cose non è altro che il loro nascimento in certi tempi e in certe guise” – un promemoria che le tecnologie digitali, lungi dall’essere fenomeni naturali inevitabili, sono creazioni umane che possiamo e dobbiamo plasmare secondo i nostri valori e bisogni più profondi.

Una questione ambientale particolarmente rilevante è quella della sostenibilità ambientale delle iniziative legate ai big data e all’intelligenza artificiale. In un momento in cui l’attenzione globale è focalizzata sulla crisi climatica, dobbiamo chiederci se le tecnologie digitali stiano contribuendo al problema o offrano soluzioni sostenibili per il futuro.

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.