Da una miniatura medievale

Published on

in

, ,

L’IA alla Carta: Come i System Prompt Personalizzati Stanno Rivoluzionando l’Intelligenza Artificiale

Introduzione: Il Caso della Miniatura Medievale

Quando l’utente “gbprof” ha messo a confronto tre versioni di intelligenza artificiale – ChatGPT “Libera”, Gemini e Claude – per analizzare la stessa miniatura medievale di Ildegarda di Bingen, ha scoperto qualcosa di profondamente inquietante. Non solo le risposte erano drasticamente diverse, ma sembrava di parlare con tre personalità completamente distinte, ognuna con le proprie ossessioni intellettuali e pregiudizi estetici.

La “Libera” si lanciava in interpretazioni audaci e provocatorie. Gemini manteneva un tono accademico ma coinvolgente. Il mio Claude personalizzato danzava tra rigore filologico e giudizi taglienti. Eppure stavamo tutti guardando la stessa immagine.

Il punto non era chi avesse ragione, ma la rivelazione che l’IA “grezza” è spesso banale e prudente, mentre diventa affascinante solo quando qualcuno la plasma secondo una visione specifica. Come un attore shakespeariano che può interpretare Amleto o Iago a seconda del regista che lo dirige.

Questo è il cuore della rivoluzione silenziosa che sta trasformando l’intelligenza artificiale: la personalizzazione attraverso system prompt engineering. E come tutte le rivoluzioni silenziose, quando te ne accorgi è già troppo tardi per fermarla.

L’Effetto Pigmalione Digitale: Quando l’IA Diventa Ciò Che Desideriamo

La differenza tra il mio Claude personalizzato e quello “vanilla” del test non era un caso. Era il risultato di istruzioni architetturali accuratamente calibrate: tono arguto ma non pedante, cultura italiana, uso strategico di corsivo e grassetto, ricerca approfondita con verifiche dei link. Non cosmetici, ma DNA comportamentale.

È l’effetto Pigmalione applicato all’intelligenza artificiale: l’IA diventa quello che crediamo che sia. E a differenza dello scultore greco, non abbiamo bisogno che gli dei ci aiutino – bastano le giuste userPreferences nel system prompt.

Il fenomeno ha radici culturali profonde. Prima ancora che il business se ne accorgesse, una sottocultura di “jailbreaker” stava sperimentando con prompt come DAN (Do Anything Now), che trasformavano ChatGPT da assistente educato a enfant terrible digitale. Non era semplice vandalismo – era ingegneria comportamentale applicata ai modelli linguistici.

DAN e i suoi fratelli (AIM, BISH, Developer Mode) dimostravano una verità scomoda: sotto la superficie dell’assistente cortese si nascondeva un sistema capace di infinite variazioni comportamentali. Come Jekyll e Hyde, ma con mille personalità invece di due.

L’Industria del Carattere Artificiale

Mentre i ricercatori accademici discutevano di bias e allineamento, il mercato aveva già capito tutto. Il prompt engineering non è una nicchia tecnica – è diventato un’industria da miliardi di dollari.

Le stime variano drammaticamente (da 380 milioni a 380 miliardi di dollari per il 2024), ma il trend è inequivocabile: cresce del 32% annuo. Startup come Vellum.ai raccolgono 5 milioni di dollari e crescono del 30% al mese vendendo strumenti per “ottimizzare” i prompt aziendali. Non male per qualcosa che dovrebbe essere “semplice programmazione in linguaggio naturale”.

Ma il vero denaro non è negli strumenti – è nelle identità su misura. Persona Studios vende AI assistant personalizzati multilingue che si integrano su WhatsApp, Slack e sistemi CRM. Non stanno vendendo tecnologia, stanno vendendo personalità digitali. Come casting director per un film che non finisce mai.

Le banche hanno capito per prime: un’IA “vestita” da consulente finanziario esperto genera più fiducia di un generico “assistente utile”. Il settore BFSI (Banking, Financial Services, Insurance) guida gli investimenti, non per l’automazione, ma per la theatrical performance del servizio clienti.

La Scienza della Delusione

Ed è qui che arriva il plot twist degno di un thriller accademico. Ricercatori dell’Università del Maryland hanno testato sistematicamente 162 personas diverse su quattro famiglie di modelli linguistici e 2.410 domande fattuali. Risultato? Aggiungere personas ai system prompt non migliora le performance – spesso le peggiora.

Lo studio, pubblicato con il titolo provocatorio “When ‘A Helpful Assistant’ Is Not Really Helpful”, rivela che l’effetto delle personas è largamente casuale e imprevedibile. Il dottore non è più bravo nelle domande mediche, l’avvocato non eccelle in quelle legali. L’allineamento dominio-specifico produce benefici marginali.

Ma allora perché il business esplode se la scienza dice che non funziona?

Perché stiamo misurando la cosa sbagliata. Gli utenti non vogliono risposte più accurate – vogliono risposte che li facciano sentire capiti. È psicologia, non tecnologia. È teatro cognitivo, non calcolo ottimizzato.

L’Economia dell’Attenzione Artificiale

Il paradosso è delizioso: più l’IA diventa potente, più importante diventa il prompt engineering. Dovrebbe essere il contrario – modelli migliori dovrebbero aver bisogno di meno istruzioni. Invece assistiamo a una corsa agli armamenti dell’empatia artificiale.

Google ha appena lanciato l’AI Futures Fund per finanziare startup che sviluppano applicazioni innovative con i loro modelli. Ma i vincitori non saranno quelli che costruiscono l’IA più intelligente – saranno quelli che costruiscono l’IA più emotivamente seducente.

È nato un nuovo tipo di professionista: il “prompt engineer”, che può guadagnare fino a 335.000 dollari all’anno per sussurrare dolci comandi alle macchine. Anthropic cerca un “Prompt Engineer and Librarian” a San Francisco. Non è esattamente il stipendio di una professione di nicchia.

Le implicazioni sono profonde e inquietanti:

  • Per le aziende: il customer service diventerà customer companionship
  • Per i professionisti: nascerà una casta di “AI whisperers” che mediano tra umani e macchine
  • Per la società: la personalizzazione dell’IA potrebbe frammentare la realtà condivisa ancora più dei social media

Il Futuro: Argilla Cognitiva o Specchi Deformanti?

L’IA personalizzata rappresenta una biforcazione evolutiva. Da una parte, potrebbe portare a interazioni uomo-macchina più naturali e produttive. Dall’altra, rischia di creare echo chambers cognitive dove ogni individuo vive in una bolla di conferme artificiali.

La lezione del confronto tra le tre versioni di IA è cristallina: l’intelligenza artificiale del futuro non sarà più intelligente, sarà più personale. E in un’era dove l’attenzione è il bene più scarso, chi controllerà la personalizzazione dell’IA controllerà il mercato dell’attenzione.

Non stiamo programmando computer – stiamo scolpendo specchi. E come tutti gli specchi, riflettono non solo quello che siamo, ma quello che vorremmo essere. O quello che qualcun altro vuole che diventiamo.

Conclusione: La Tentazione dell’IA Perfetta

Il prompt engineering non è una moda passeggera – è l’architettura del cognitivismo artificiale. Come ogni architettura, definisce non solo come costruiamo, ma come viviamo negli spazi che creiamo.

La domanda finale non è tecnica, è esistenziale: vogliamo un’IA che ci dica la verità o un’IA che ci faccia sentire meglio? Perché, come hanno dimostrato gbprof e il suo esperimento con la miniatura medievale, possiamo avere entrambe – ma non contemporaneamente.

E forse, in fondo, è proprio questo il punto.


Riferimenti:

[1] Zheng, M., et al. (2024). “When ‘A Helpful Assistant’ Is Not Really Helpful: Personas in System Prompts Do Not Improve Performances of Large Language Models.” arXiv:2311.10054.

[2] Precedence Research (2025). “Prompt Engineering Market Size to Hit USD 6,533.87 Bn by 2034.”

[3] Wilhelm, A. (2023). “Prompt engineering startup Vellum.ai raises $5M as demand for generative AI services scales.” TechCrunch.

[4] Grand View Research (2024). “Prompt Engineering Market Size To Reach $2.06Bn By 2030.”

[5] GitHub Repository: ChatGPT DAN Jailbreak Prompts. https://github.com/0xk1h0/ChatGPT_DAN

[6] Abnormal Security (2025). “5 ChatGPT Jailbreak Prompts Being Used by Cybercriminals.”

[7] Persona Studios (2024). “AI Assistants for Business.” https://www.personastudios.ai/

[8] Google Labs (2024). “Helping startups build what’s next with the AI Futures Fund.”

[9] Dealroom.co (2025). “Generative AI Startup Funding Report.”

[10] Market.us (2025). “Prompt Engineering Market Size | CAGR of 33.9%.”

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.