Il 95% che non era il 95%: quando il debunking diventa la malattia che vuole curare

Published on

in

,

Come un tentativo di correggere la disinformazione finisce per produrne dell’altra, e perché abbiamo disperatamente bisogno di giornalismo vero invece di reazioni a caldo

L’ecosistema delle verità di comodo

Nelle ultime settimane abbiamo assistito a un perfetto caso di studio su come l’informazione si corrompe nell’era dei social. Un report MIT con 52 interviste diventa prima “prova definitiva del fallimento AI” sui giornali mainstream, poi “fake news anti-AI” sui canali tech. Due narrazioni opposte, stessa metodologia fallace.

Il risultato? Un dibattito tossico dove ogni parte cita gli stessi numeri per dimostrare tesi contrarie, mentre la realtà aziendale – complessa e sfumata – sparisce nel rumore.

Non è solo cattivo giornalismo. È l’inevitabile conseguenza di un ecosistema informativo che premia la velocità sulla precisione, il coinvolgimento emotivo sull’analisi seria.

L’anatomia del bias di conferma amplificato

Il meccanismo è diabolicamente semplice:

Fase 1 – La distorsione originale: Giornali mainstream prendono il dato più sensazionale (95% di fallimento) ignorando il contesto. Target: manager scettici che vogliono sentirsi furbi per non aver investito in AI.

Fase 2 – La contro-distorsione: Canali tech smontano la narrativa precedente, ma finiscono per costruirne una opposta altrettanto parziale. Target: tech enthusiast che vogliono sentirsi confermati nel loro ottimismo.

Fase 3 – L’escalation: Ogni parte usa i “debunking” dell’altra come prova della propria correttezza, creando un circolo vizioso dove il dissenso diventa proof of concept.

Il youtuber che analizza il report fa esattamente questo: critica giustamente la manipolazione dei dati, ma poi manipola gli stessi dati per costruire una narrativa opposta. Il 25% di successo enterprise diventa “non così male”, l’80% di soddisfazione sui pilota LLM diventa “dimostrazione che funziona tutto”.

Le domande che nessuno sta facendo

Mentre tutti dibattono sui numeri, nessuno sta facendo giornalismo serio:

Sul campionamento: 52 aziende sono poche, ma rappresentative di cosa? Che settori? Che dimensioni? Che tipologie di implementazione? Il report lo dice, ma nessun articolo lo riporta.

Sulla metodologia: Le interviste sono notoriamente soggettive, ma esistono metriche oggettive per alcuni di questi progetti? Revenue impact, time-to-completion, error rates? Perché non incrociarle?

Sui bias di selezione: Chi accetta di partecipare a questi studi? Chi rifiuta? Le aziende che hanno fallito malamente sono più o meno propense a collaborare?

Sul timing: Questi progetti quando sono stati implementati? Con che versioni di modelli? L’AI enterprise del 2022 non è quella del 2024, ma il report distingue?

La trappola del nuovo evangelismo tech

Il video YouTube, pur criticando il clickbait anti-AI, finisce per fare propaganda pro-AI altrettanto acritica. L’autore:

  • Minimizza il 75% di fallimento enterprise come “normale per nuove tecnologie”
  • Presenta l’80% di soddisfazione sui pilota come dato oggettivo (ma erano sempre percezioni!)
  • Usa la shadow economy come prova di utilità invece che come warning sulla governance

È lo stesso bias confirmation, solo dall’altra parte. E il pubblico tech lo mangia volentieri perché conferma quello che vuole sentire.

Quello che davvero ci dice il report (se lo leggiamo da adulti)

Tolte le polarizzazioni, emergono tre verità scomode:

L’AI quotidiana funziona: Il 90% la usa già, spesso nascostamente. Non è hype – è utility reale che ha superato la prova del quotidiano.

L’AI enterprise è ancora immatura: Non per limiti tecnologici, ma per mancanza di competenze nell’implementazione. È normale – tutte le tecnologie passano per questa fase.

Esiste un problema di governance: La shadow economy al 90% non è un successo – è un fallimento manageriale. Significa che le aziende non sanno gestire una trasformazione che sta già avvenendo.

Il vero scandalo: l’assenza di giornalismo investigativo

Il problema non è il report MIT – che, pur con limiti, fornisce dati utili. Il problema è come viene processato dal sistema informativo.

Dovremmo vedere:

  • Inchieste approfondite sui contratti enterprise falliti (nomi, cifre, cause specifiche)
  • Analisi comparative tra aziende che implementano bene vs male
  • Follow-up longitudinali per capire l’evoluzione nel tempo
  • Interviste tecniche con implementatori, non solo con manager

Invece abbiamo opinion journalism travestito da analisi. Tutti hanno un’opinione sull’AI, nessuno vuole fare il lavoro sporco di capirla davvero.

La sindrome del “team sport”

L’AI è diventata un team sport: o sei pro o sei contro. Chi prova a essere sfumato viene accusato di “equilibrismo mediatico” o di non aver preso posizione.

Ma la realtà aziendale non è uno stadio. È un ecosistema complesso dove convivono:

  • Strumenti che funzionano benissimo (scrittura, analisi, coding)
  • Implementazioni enterprise che falliscono per incompetenza
  • Hype marketing che danneggia la credibilità
  • Adozioni spontanee che creano valore reale

Verso un giornalismo tech adulto

Cosa servirebbe per uscire da questa spirale?

Competenza tecnica vera: Giornalisti che capiscano la tecnologia abbastanza da fare le domande giuste, non solo da riportare dichiarazioni.

Metodologie rigorose: Stop agli articoli basati su un singolo report. Triangolazione delle fonti, analisi dei limiti metodologici, contestualizzazione storica.

Tempi più lunghi: L’AI enterprise si valuta in anni, non trimestri. Servono analisi longitudinali, non snapshot emotivi.

Trasparenza sui conflitti: Chi finanzia questi studi? Chi ha interesse a certi risultati? Follow the money, sempre.

La lezione per le aziende (quelle serie)

Nel frattempo, cosa dovrebbero fare le aziende che vogliono navigare tra hype e realtà?

Sperimentare internamente prima di comprare soluzioni enterprise. I 20€/mese di ChatGPT Plus vi dicono più di qualsiasi white paper da consulenza.

Misurare metriche concrete: Non “siamo più innovativi”, ma “abbiamo ridotto X ore su processo Y”. Numeri, non percezioni.

Costruire competenze interne: L’AI non si compra, si impara. Chi delega tutto finisce ostaggio dei fornitori.

Governare la shadow economy: Invece di proibire, create framework sensati. La gente lo userà comunque – meglio farlo bene.

Il costo dell’ignoranza strategica

Mentre media e influencer giocano al ping-pong delle narrative, la realtà competitiva avanza inesorabile. Aziende che stanno sperimentando seriamente accumulano vantaggio; quelle che aspettano “certezze definitive” scivolano indietro.

Il report MIT, spogliato dalle interpretazioni faziose, dice una cosa semplice: l’implementazione enterprise è difficile, quella quotidiana funziona. Non è scandaloso – è normale per tecnologie emergenti.

Il vero scandalo è che abbiamo trasformato un dataset limitato ma utile in munizione per guerre ideologiche. E nel frattempo, il 90% delle persone continua a lavorare meglio con l’AI, indipendentemente da quello che scrivono i giornali.

La prossima volta che vedete un titolo definitivo sull’AI – in qualsiasi direzione – ricordatevi: la verità non fa mai titoli così netti. E se qualcuno vi sta vendendo certezze assolute su una tecnologia che cambia ogni mese, probabilmente vi sta vendendo fumo.

O peggio: vi sta vendendo la rassicurazione che non dovete pensarci.


Riferimenti:

  • Analisi critica del report MIT – Video che smonta la narrativa mainstream ma cade in bias opposti
  • MIT Report on Enterprise AI Implementation – Report originale citato nel video

One response to “Il 95% che non era il 95%: quando il debunking diventa la malattia che vuole curare”

  1. Luca Muzi Avatar

    Veramente molto interessante!

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.