Quando l’AI Rivela chi Non Fa i Compiti

Perché gli scandali non sono colpa dell’AI, ma di processi senza verifica

Anatomia delle gaffe professionali nell’era dell’IA generativa

Introduzione — Il rivelatore universale di negligenza

L’intelligenza artificiale generativa non è semplicemente uno strumento che “sbaglia”: è un amplificatore di negligenza professionale. Dal 2023 a oggi assistiamo meno a una crisi dell’AI e più a una crisi del controllo umano: professionisti (e organizzazioni) che abdicano al proprio ruolo di verifica, assumendo che la macchina “sappia meglio”.

Schema ricorrente: pressione economica → delega cieca → assenza di verifica → scandalo pubblico. Gli incentivi sono distorti: si premia volume anziché qualità, velocità anziché verifica, apparenza anziché sostanza.


Casi emblematici

Deloitte Australia — Le Big Four vendono allucinazioni al governo

Ottobre 2025 • ~290.000 USD • 237 pagine di rapporto governativo
Deloitte Australia ha accettato un rimborso parziale al governo per un rapporto su welfare/IT pieno di errori, tra cui: citazioni accademiche inesistenti, riferimenti a libri mai scritti e perfino una citazione inventata di un giudice federale. La revisione ufficiale ammette l’uso di Azure OpenAI (GPT‑4o) per “colmare lacune di tracciabilità”, dicitura prima assente. La scintilla? Il giurista Chris Rudge ha notato un libro fantasma attribuito alla prof.ssa Lisa Burton Crawford.
Fonti: AP News; The Guardian; AFR; TechRadar; Fortune.

La Provincia — Quando il prompt diventa titolone

9 ottobre 2025 • Italia • Quotidiano cartaceo
In chiusura di un pezzo di cronaca è comparsa la frase:

“Vuoi che lo trasformi in un articolo da pubblicare su un quotidiano (con titolo, occhiello e impaginazione giornalistica) o in una versione più narrativa da magazine d’inchiesta?”
Meccanismo: scadenza → uso di un LLM per aiuto → copia‑incolla frettoloso dell’output senza rilettura → prompt stampato in prima pagina.
Fonte: Open.online.

Chicago Sun‑Times — La biblioteca immaginaria

Maggio 2025 • Due grandi testate USA • “15 libri per l’estate” (10 inventati)
Tra i titoli fantasma: “Tidewater Dreams” (Isabel Allende), “The Last Algorithm” (Andy Weir), “The Rainmakers” (Percival Everett). Gli autori esistono, i libri no. Il collaboratore Marco Buscaglia ha ammesso: “Ho usato l’AI per la ricerca ma non ho fatto verifiche.”
Timing: la lista esce due mesi dopo i prepensionamenti del 20% del personale.
Fonti: Chicago Sun‑Times/WBEZ; Axios; PEN America.

Il “tsunami” legale — 432 casi e crescita esponenziale

Database Charlotin (aggiornato al 12 ottobre 2025)
Il ricercatore Damien Charlotin traccia decisioni in cui i tribunali accertano allucinazioni nei depositi:

  • 2023: 10 casi — nascita del fenomeno
  • 2024: 47 casi — +370%
  • Gen–Mag 2025: ~120 casi — raddoppio in 5 mesi
  • Ottobre 2025: ~432 casi complessivi (~282 USA + >150 internazionali)

Cambiamento di fase: dalla media di “pochi casi al mese” a “diversi al giorno” nella primavera 2025.
Casi iconici:

  • Mata v. Avianca (S.D.N.Y., 2023) — 6 precedenti inventati: sanzione $5.000.
  • Michael Cohen (2023–24) — 3 casi inesistenti generati da Google Bard; non sanzionato, ma episodio definito “imbarazzante” dal giudice.
  • Settembre 2025, California — avvocato multato $10.000 per 21 citazioni false su 23, nuovo record statale.
    Fonti: Database Charlotin; Justia/ordine del giudice Castel; Reuters/AP/ABA Journal su Cohen; CalMatters/LAist/NatLawReview su California.

La regola dei 5 controlli anti‑figuraccia

(box operativo per professionisti)

  1. Fonte primaria? La citazione/dato esiste davvero nell’archivio originale?
  2. Persona/ente reale? Autore/organizzazione verificabili?
  3. Link funziona? Il riferimento è accessibile e corrisponde al contenuto?
  4. Coerenza su 2 fonti? Dati identici su due archivi indipendenti?
  5. Responsabile che firma? Chi mette il nome sul risultato finale?

👉 Se anche uno solo manca: STOP. Verifica manualmente.


Chi sta facendo le cose per bene

Associated Press — Policy in 60 secondi

AP usa automazioni dal 2015 (es. brevi su utili societari), ma dopo ChatGPT ha blindato le regole:

  • L’AI non può creare contenuti pubblicabili per il servizio stampa.
  • Ogni output va verificato e riscritto da un giornalista.
  • Dichiarazione dell’uso AI nei metadati.
    Risultato: nessuno scandalo pubblico attribuibile all’AI.
    Fonti: AP News; AP Standards; Journalists’ Resource; The Verge (2015).

Bloomberg — “Non è notizia se non è vero”

Approccio iterativo tra giornalisti e data scientist, modelli ad alta precisione su compiti ristretti, supervisione umana su ogni output e trasparenza quando l’AI interviene (es.: summaries e ricerca NL su documenti finanziari; l’articolo lo scrive e firma il giornalista).
Fonti: Bloomberg Press Room (AI summaries); American Banker / A‑Team / BigDataWire (ricerca NL su filing); paper/position su workflow Bloomberg.


Il problema sta peggiorando (non migliorando)

NewsGuard, monitor 2024→2025

  • Ago 2024: ~18% risposte con false informazioni + 31% rifiuti
  • Ago 2025: 35% false + 0% rifiuti
    Paradosso: i modelli diventano più “utili” (rispondono sempre) ma meno accurati. Sono ottimizzati per soddisfazione dell’utente, non per precisione. Quando sbagliano, lo fanno con maggiore sicurezza (più “certamente”, “senza dubbio”).
    Fonti: NewsGuard Progress Report; AI False Claim Monitor; coverage Forbes/Euronews.

La questione filosofica (e professionale)

L’AI non sostituisce i professionisti: smonta chi non ha mai fatto davvero il proprio mestiere.

  • Un avvocato che cita casi senza consultarne i testi non fa ricerca, fa teatro.
  • Un giornalista che pubblica liste senza verificare non fa giornalismo, riempie spazio.
  • Una Big Four che consegna rapporti con citazioni inventate non fa consulenza, vende l’apparenza di competenza.
    L’AI ha abbassato i costi di produzione, rendendo “conveniente” spedire la prima bozza senza controllo qualità.

Policy per organizzazioni (6 punti essenziali)

  1. Non delegare il giudizio finale → l’AI assiste, non decide.
  2. Verifica fonti primarie → citazioni e dati si controllano.
  3. Trasparenza totale → se usi AI, dillo (nasconderlo peggiora lo scandalo).
  4. Allinea gli incentivipremia qualità, non volume.
  5. Responsabilità umana → chi firma risponde (no “colpa dell’algoritmo”).
  6. Impara dai virtuosiAP e Bloomberg mostrano che si può fare bene.

Conclusioni — Il costo della negligenza amplificata

Con modelli più potenti e costi in calo vedremo più scandali, non meno. Non perché l’AI “peggiori”, ma perché:

  • più organizzazioni la adottano senza processi;
  • più persone la usano senza formazione;
  • la pressione economica spinge a tagliare le verifiche;
  • i modelli sono incentivati a rispondere, non ad ammettere incertezza.

La domanda non è se avrai uno scandalo AI, ma quando — e se avrai processi robusti per limitarne i danni. L’alternativa esiste: seguire Bloomberg e AP. Costa di più, richiede più tempo, ma preserva la reputazione. Nel lungo periodo è l’unica strategia sostenibile.


Disclaimer metodologico

Analisi su casi confermati (2023–2025). I numeri del database Charlotin crescono quotidianamente; dati aggiornati al 12 ottobre 2025. Non misura la baseline degli usi corretti dell’AI (che non fanno notizia). I link citati rimandano a fonti primarie o a coperture dirette.


Riferimenti

NewsGuard — August 2025 — AI False Claim Monitor (2025): https://www.newsguardtech.com/ai-monitor/august-2025-ai-false-claim-monitor/

AP News — Deloitte to partially refund Australian government for report with apparent AI-generated errors (2025): https://apnews.com/article/ab54858680ffc4ae6555b31c8fb987f3

The Guardian — Deloitte to pay money back… after using AI in $440,000 report (2025): https://www.theguardian.com/australia-news/2025/oct/06/deloitte-to-pay-money-back-to-albanese-government-after-using-ai-in-440000-report

Australian Financial Review — Deloitte to refund government after admitting AI errors… (2025): https://www.afr.com/companies/professional-services/deloitte-to-refund-government-after-admitting-ai-errors-in-440k-report-20251005-p5n05p

TechRadar Pro — Deloitte forced to refund… (2025): https://www.techradar.com/pro/deloitte-forced-to-refund-aussie-government-after-admitting-it-used-ai-to-produce-error-strewn-report

Fortune — Deloitte was caught using AI… (2025): https://fortune.com/2025/10/07/deloitte-ai-australia-government-report-hallucinations-technology-290000-refund/

Open.online — «Vuoi che te lo trasformi in un articolo?» (2025): https://www.open.online/2025/10/09/giornale-articolo-scritto-chatgpt-la-provincia-quotidiano/

Chicago Sun‑Times — AI-generated content… contained errors (2025): https://chicago.suntimes.com/news/2025/05/20/syndicated-content-sunday-print-sun-times-ai-misinformation

Axios — Chicago paper’s “reading list” full of fake, likely AI‑generated titles (2025): https://www.axios.com/2025/05/20/ai-summer-reading-books-chicago-sun-times

PEN America — AI‑Generated Fake Book List… (2025): https://pen.org/ai-generated-fake-book-reflects-danger-to-journalism/

Database Damien Charlotin — AI Hallucination Cases (live): https://www.damiencharlotin.com/hallucinations/

Justia — Mata v. Avianca, Inc., ordine di sanzione ($5.000) (2023): https://law.justia.com/cases/federal/district-courts/new-york/nysdce/1%3A2022cv01461/575368/54/

Reuters — Michael Cohen won’t face sanctions… (2024): https://www.reuters.com/legal/michael-cohen-wont-face-sanctions-after-generating-fake-cases-with-ai-2024-03-20/

AP News — Ex‑Trump lawyer Michael Cohen… (2024): https://apnews.com/article/777ace9cc34aa0e56398fd47a1d6b420

ABA Journal — Fake citations… were generated by Google Bard (2024): https://www.abajournal.com/news/article/fake-citations-in-legal-brief-were-generated-by-google-bard-ai-program-says-ex-trump-lawyer-michael-cohen

CalMatters — Historic fine after 21 of 23 quotes were fake (2025): https://calmatters.org/economy/technology/2025/09/chatgpt-lawyer-fine-ai-regulation/

LAist — LA attorney: $10,000 fine for fake quotations generated by AI (2025): https://laist.com/brief/news/criminal-justice/la-attorney-historic-fine-chatgpt-fabrications

National Law Review — California court fined lawyers $10,000… (2025): https://natlawreview.com/article/ai-yi-yi-fake-cases-real-consequences-cautionary-tale-ai-courtroom

AP Standards — Standards around generative AI (2023): https://www.ap.org/the-definitive-source/behind-the-news/standards-around-generative-ai/

AP News — AP develops standards… (2023): https://www.ap.org/media-center/ap-in-the-news/2023/ap-other-news-organizations-develop-standards-for-use-of-artificial-intelligence-in-newsrooms/

Bloomberg Press — AI‑Powered News Summaries (2025): https://www.bloomberg.com/company/press/bloomberg-launches-gen-ai-summarization-for-news-content/

American Banker — Bloomberg launches AI‑based document search (2025): https://www.americanbanker.com/news/bloomberg-launches-ai-based-document-search-for-wall-street

A‑Team Insight — Bloomberg launches AI‑Powered Research Tool (2025): https://a-teaminsight.com/blog/bloomberg-launches-ai-powered-research-tool-for-terminal-users/

BigDataWire — Bloomberg integrates NL search… (2025): https://www.bigdatawire.com/this-just-in/bloomberg-integrates-natural-language-search-across-terminal-research-content/

NewsGuard — Anniversary Progress Report: chatbots spread false claims 35% (2025): https://www.newsguardtech.com/press/newsguard-one-year-ai-audit-progress-report-finds-that-ai-models-spread-falsehoods-in-the-news-35-of-the-time/

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.