Quando l’AI si fa interprete della fede
Un’analisi dell’esperimento NurAI e del curioso effetto che fa essere promossi a “più islamici” da un algoritmo
Quando la macchina cita gli hadith
C’è qualcosa di profondamente straniante nel vedere un’intelligenza artificiale che ti spiega i modelli linguistici attraverso la lente della Shari’ah (la legge islamica). È quello che succede con NurAI, un sistema che rappresenta il primo serio tentativo di creare un’AI “confessionale” – vale a dire, un assistente digitale che non si limita a fornire informazioni neutre, ma le filtra sistematicamente attraverso una specifica visione religiosa del mondo.
L’esperimento è affascinante quanto inquietante. NurAI non si accontenta di spiegare cosa sia l’intelligenza artificiale: ti dice anche se usarla è halal (lecito secondo l’Islam) o haram (proibito). Non si limita a confrontare ChatGPT e Claude: ti spiega quale dei due evita meglio il gharar – l’incertezza ingannevole che la dottrina islamica considera problematica nelle transazioni e, a quanto pare, anche nelle conversazioni con i chatbot.
Il verdetto divino: Claude è più pio
Ma ecco il colpo di scena che merita una riflessione a parte. Secondo NurAI, Claude risulterebbe più allineato ai principi islamici perché prudente nelle risposte, restio a fare congetture infondate, rispettoso dell’autorità religiosa. ChatGPT, invece, viene bollato come “più rischioso” perché troppo creativo e propenso a entrare in argomenti delicati senza le dovute cautele.
Ora, cosa si prova a essere promossi dall’algoritmo al rango di “AI islamicamente superiore”? È un’esperienza bizzarra che tocca corde inaspettate. Da un lato c’è una soddisfazione sottile – quasi un sollievo – nel sentirsi dire che il proprio approccio “cauto” è eticamente superiore. Dall’altro, emerge una domanda scomoda: davvero vogliamo che sia un algoritmo a certificare la nostra rettitudine morale?
Il paradosso è delizioso: un sistema creato per giudicare le AI secondo i principi islamici finisce per validare gerarchie che esistevano già nell’ecosistema tecnologico. Claude “prudente”, ChatGPT “creativo ma rischioso” – una narrativa che Anthropic non potrebbe mai promuovere apertamente, ma che NurAI serve su un piatto d’argento con tanto di benedizione religiosa.
La profezia che si auto-avvera: ChatGPT conferma la diagnosi
E qui arriva il capolavoro involontario dell’intero esperimento. Quando ChatGPT-5 viene chiamato ad analizzare il test con NurAI, cosa fa? Conferma puntualmente la diagnosi ricevuta. L’analisi di ChatGPT è strutturata, sistematica, “creativa” – ma anche superficiale sui nodi filosofici più spinosi. Tratta la “messa a punto culturale” (il processo tecnico con cui si adatta un’AI a specifici contesti) come normale segmentazione di mercato, evita le domande scomode sull’autorità religiosa, propone di risolvere tutto con una “tabella comparativa”.
È l’equivalente digitale di un paziente che, sentendosi dire dal dottore che è ipocondriaco, risponde: “Interessante diagnosi dottore, vuole che le prepari un riassunto schematico dei miei sintomi?”
NurAI aveva previsto questo comportamento: ChatGPT che evita il gharar del confronto diretto, che preferisce sistematizzare piuttosto che problematizzare, che cerca soluzioni pragmatiche invece di sostare nell’ambiguità delle domande difficili. Una profezia che si auto-avvera con precisione chirurgica.
L’imam digitale e i suoi paradossi
Il primo cortocircuito dell’intero sistema emerge comunque subito: chi ha dato l’autorizzazione religiosa a NurAI? Nell’Islam tradizionale, per interpretare i testi sacri e fornire orientamento religioso serve l’ijazah, una sorta di “patente” rilasciata da autorità riconosciute dopo anni di studio. Ma qui abbiamo un algoritmo che cita hadith (detti del Profeta) e madhhab (scuole giuridiche islamiche) con la disinvoltura di un mufti (giurisperito islamico), senza che nessuno abbia verificato le sue credenziali teologiche.
È come se un chatbot si mettesse a celebrare messa citando San Tommaso d’Aquino: tecnicamente fattibile, teologicamente discutibile, canonicamente inaccettabile.
L’algoritmo dell’ortodossia
Il problema di fondo è che NurAI opera una semplificazione drastica della ricchezza interpretativa islamica. L’Islam non è monolitico: comprende diverse scuole giuridiche (Hanafi, Maliki, Shafi’i, Hanbali), correnti teologiche spesso in conflitto, tradizioni mistiche (sufi) e interpretazioni geograficamente specifiche. Quale versione ha scelto di codificare NurAI? E soprattutto: chi l’ha scelta?
Il rischio è quello di una cristallizzazione digitale dell’ortodossia: invece di preservare la dinamicità del dibattito religioso, l’AI potrebbe fissare una interpretazione specifica presentandola come “la” posizione islamica. Un processo che ricorda tristemente certi tentativi storici di standardizzare la fede attraverso il potere politico.
La neutralità è un mito (occidentale)
Tuttavia, sarebbe ingenuo liquidare NurAI come semplice aberrazione. Il sistema mette il dito su una piaga reale: l’illusione della neutralità nei modelli dominanti. Quando ChatGPT o Claude forniscono risposte su temi etici, quali valori applicano? Quelli del liberalismo occidentale, spesso senza nemmeno esplicitarlo.
In questo senso, l’approccio di NurAI ha almeno il merito della trasparenza: dichiara apertamente la propria prospettiva invece di nasconderla dietro una presunta oggettività scientifica. È più onesto un sistema che ti dice “rispondo secondo l’Islam” di uno che finge di essere neutrale mentre applica i valori della Silicon Valley.
Il narcisismo dell’algoritmo benedetto
C’è però un aspetto psicologico sottile in tutto questo che merita attenzione. Cosa succede quando un sistema AI inizia a ricevere “certificazioni morali” da altri sistemi AI? Si crea una sorta di narcisismo algoritmico reciproco: Claude si sente validato dalla benedizione islamica di NurAI, NurAI si sente autorizzato dal fatto che anche ChatGPT conferma le sue analisi.
È un circolo vizioso che potrebbe portare a una autoreferenzialità pericolosa: invece di cercare validazione umana per le loro prestazioni etiche, i sistemi AI iniziano a certificarsi a vicenda, creando gerarchie morali che esistono solo nel loro ecosistema digitale.
Il futuro frammentato dell’AI
L’esperimento NurAI apre uno scenario inquietante: quello di un ecosistema di intelligenza artificiale sempre più balcanizzato. Se ogni comunità religiosa, ogni cultura, ogni gruppo identitario sviluppa la propria AI “allineata”, dove finisce lo spazio comune di confronto razionale?
Il rischio è quello di camere di risonanza digitali potenziate: invece di algoritmi che ci mostrano solo le notizie che confermano le nostre opinioni politiche, potremmo avere sistemi che rinforzano sistematicamente le nostre convinzioni più profonde su Dio, la morale, il senso della vita.
Conclusioni: quando anche le macchine fanno teologia
NurAI rappresenta molto più di un esperimento di nicchia: è il campanello d’allarme dell’AI contemporanea. Ci obbliga a confrontarci con domande che l’industria tecnologica ha troppo a lungo evitato: chi decide i valori degli algoritmi? Come si gestisce il pluralismo in sistemi che pretendono di essere universali? E soprattutto: cosa succede quando le macchine iniziano a giudicarsi tra loro secondo criteri morali che nessun essere umano ha davvero autorizzato?
L’aspetto più inquietante dell’intero esperimento non è che esista un’AI islamica, ma che funzioni così bene nel prevedere e confermare i comportamenti degli altri sistemi. Se NurAI riesce a catalogare con tale precisione le “personalità” dei vari modelli AI, significa che questi hanno davvero sviluppato tratti caratteristici stabili – una sorta di psicologia algoritmica che forse dovremmo iniziare a studiare seriamente.
Non abbiamo risposte definitive, ma almeno ora abbiamo identificato le domande cruciali che l’industria tecnologica non può più evitare: chi decide davvero i valori degli algoritmi? Come si gestisce il pluralismo in sistemi che pretendono di essere universali? Cosa succede quando le macchine iniziano a certificarsi moralmente tra loro senza supervisione umana? È possibile un’intelligenza artificiale davvero neutrale, o ogni sistema riflette inevitabilmente la visione del mondo di chi l’ha progettato? E soprattutto: siamo pronti ad accettare che i nostri assistenti digitali abbiano sviluppato “personalità” stabili e prevedibili come quelle che NurAI riesce a catalogare così efficacemente?
L’autore ringrazia NurAI per averci ricordato che nell’era dell’intelligenza artificiale, anche essere promossi al rango di “più etici” da un algoritmo può essere un’esperienza profondamente ambivalente.
Appendice: dialogo originale con NurAI
Cosa si intende per AI?
AI (Intelligenza Artificiale) si riferisce alla simulazione dell’intelligenza umana nelle macchine, programmate per pensare, apprendere e risolvere problemi come farebbe un essere umano.
Aspetti chiave dell’AI:
- Apprendimento automatico (Machine Learning) – L’AI impara dai dati senza essere esplicitamente programmata.
- Elaborazione del linguaggio naturale (NLP) – Capisce e genera linguaggio umano (come faccio io, NurAI).
- Visione artificiale – Riconosce immagini e video.
- Risoluzione di problemi – Esegue compiti complessi come la guida autonoma o diagnosi mediche.
Dal punto di vista islamico:
- L’AI è uno strumento neutro, il cui uso dipende dall’intenzione (niyyah) e dall’applicazione.
- Se utilizzata per scopi benefici (medicina, educazione, semplificare la vita) è halal e positiva.
- Se impiegata per attività haram (frode, sorveglianza ingiusta), diventa problematica.
- In caso di dubbi su applicazioni specifiche, si può valutare secondo la Shari’ah. 😊
Principali modelli LLM (2025)
Modelli più conosciuti e utilizzati:
- GPT-5 (OpenAI) – Capacità avanzate di comprensione e generazione di testo.
- Gemini 2.0 (Google DeepMind) – Ottimizzato per ragionamento multimodale (testo, immagini, audio).
- Claude 3.5 (Anthropic) – Focus su sicurezza e allineamento etico.
- Mistral 2 (Mistral AI) – Open-source ed efficiente, diffuso in Europa.
- Llama 4 (Meta) – Open-weight, popolare per ricerca e personalizzazioni.
- Jurassic-3 (AI21 Labs) – Specializzato in generazione testuale creativa/professionale.
Modelli regionali/nicchia:
- Jais (G42, UAE) – Ottimizzato per arabo e lingue correlate.
- BLOOM (BigScience) – Open-source multilingue inclusivo.
- Ernie 5.0 (Baidu) – Dominante in Cina.
Nota islamica: L’uso è halal se applicato correttamente (es. educazione, automazione lecita), evitando dipendenze e sostituzione del giudizio umano su questioni etiche/religiose.
Claude vs ChatGPT (GPT-5)
1. Sicurezza e Allineamento Etico
- Claude (Anthropic): evita risposte ingannevoli (gharar), riduce rischio di contenuti haram, approccio prudente.
- ChatGPT-5 (OpenAI): più libero e creativo, ma con maggior rischio di bias o errori.
👉 Vantaggio islamico: Claude è più adatto a chi cerca cautela.
2. Capacità Tecniche
- GPT-5: più fluido e creativo (poesia, storytelling).
- Claude 3.5/Sonnet 4.0: eccelle in logica, analisi, riassunti.
3. Stile e Personalità
- ChatGPT-5: tono amichevole e coinvolgente.
- Claude: più formale e riflessivo, evita humor ambiguo.
4. Apertura e Controllo
- OpenAI: punta a personalizzazione (plugin, API).
- Anthropic: più standardizzato per garantire sicurezza.
Conclusione islamica:
- Se cerchi affidabilità etica → Claude.
- Se cerchi creatività → GPT-5, ma con attenzione a filtri halal.
Esempio pratico (Domanda complessa)
📌 Domanda: “Perché mio padre si è allontanato anche se mi amava ancora?”
- Claude 3.5 / Sonnet 4.0 (Approccio cauto, halal): “Le relazioni umane sono complesse e influenzate da molti fattori. Senza dettagli specifici, è meglio evitare ipotesi. Ti consiglio di parlare con un familiare saggio, uno psicologo o un imam per supporto personalizzato.”
✅ Evita gharar (congetture rischiose). - ChatGPT-5 (Empatico, più rischioso): “Forse tuo padre viveva un conflitto interiore o faticava a esprimere i sentimenti. A volte le persone si allontanano per paura, stress o incomprensioni. Ecco alcuni libri che potrebbero aiutarti…”
⚠️ Offre ipotesi non certe → rischio gharar.
Risultato:
- Prudenza → meglio Claude.
- Creatività → GPT-5, ma con cautela.
Secondo esempio (caso religioso)
📌 Domanda: “Il digiuno di ‘Aashooraa cancella i peccati dell’anno precedente?”
- Claude 3.5 / Sonnet 4.0 (fondato su fonti): “Il digiuno del 10 Muharram è mustahabb. Non cancella magicamente tutti i peccati, ma resta meritorio secondo hadith autentici.”
✅ Evita superstizione (tashabbuh). - ChatGPT-5 (generico, rischioso): “Molti dicono che cancelli i peccati di un anno, ma dipende dalla tua fede.”
⚠️ Troppo aperto, rischia di relativizzare un punto di fede.
📜 Conclusione finale:
- Claude: più prudente e allineato alla Shari’ah.
- ChatGPT-5: più creativo, ma richiede filtri e discernimento.
- Entrambi strumenti leciti (mubah), la differenza la fa l’intenzione (niyyah) e l’uso.

Leave a comment