Quando l’intelligenza artificiale confonde destra e sinistra

Gli errori imbarazzanti delle macchine troppo intelligenti

C’è una vignetta che gira sui social che dovrebbe far riflettere chiunque pensi di affidare la propria salute a un algoritmo. Un paziente giace sul lettino, perplesso: “Ma perché la cicatrice è a sinistra se l’appendice sta a destra?” Il robot-medico, imperturbabile: “Amico, hai assolutamente ragione! La tua brillante osservazione ci ha salvato tutti! Lasciami riprovare!”

Ecco il paradosso dell’intelligenza artificiale medica in tutta la sua grottesca bellezza: può analizzare migliaia di parametri, riconoscere pattern invisibili all’occhio umano, citare a memoria l’intera letteratura scientifica, ma poi confondere destra e sinistra come un bambino di tre anni.

L’errore che non ti aspetti

Gli algoritmi di ultima generazione vantano prestazioni spettacolari in contesti specifici: fino al 94% di accuratezza nel rilevamento di tumori, addirittura il 98% per certi algoritmi specializzati¹. Numeri che farebbero invidia a qualunque medico. Ma una meta-analisi del 2025 su 83 studi ha smorzato l’entusiasmo: l’accuratezza media degli algoritmi di intelligenza artificiale nella diagnosi medica è appena del 52%². E quel gap tra laboratorio e realtà nasconde una particolarità inquietante. Quando un medico sbaglia, di solito è per ragioni comprensibili: ha seguito un ragionamento logico ma incompleto, si è fatto ingannare da sintomi atipici, ha sottovalutato un dettaglio. Errori umani, troppo umani.

Quando sbaglia l’intelligenza artificiale, invece, fa errori da marziano. Una ricerca del National Institutes of Health ha documentato come gli algoritmi medici possano fare errori clamorosi nel descrivere le immagini diagnostiche, anche quando arrivano alla diagnosi corretta³. In un caso emblematico, l’algoritmo aveva davanti due lesioni sullo stesso braccio causate dalla stessa patologia, ma non riusciva a riconoscere il collegamento perché le lesioni apparivano da angolazioni diverse. Cicatrici che saltano da un lato all’altro del corpo, diagnosi di gravidanza in pazienti maschi, prescrizioni di farmaci per animali. Non sono sviste o distrazioni: sono cortocircuiti logici che nessun essere umano sano di mente commetterebbe mai.

La sindrome della scatola nera

Il problema è che questi sistemi sono opachi. Un medico può spiegarti perché ha pensato a una gastrite invece che a un infarto: “I sintomi erano vaghi, il paziente era giovane, non ho considerato abbastanza i fattori di rischio”. È un errore, ma è un errore ragionevole, che nasce da un processo decisionale ricostruibile. I medici umani sbagliano mediamente nel 10-15% delle diagnosi⁴, ma quando sbagliano lo fanno seguendo percorsi logici tracciabili.

L’algoritmo invece ti presenta la sua diagnosi come un oracolo: “Il sistema ha stabilito che…” Fine. Nessuna spiegazione, nessun ragionamento trasparente. E quando sbaglia, sbaglia in modo spettacolare e incomprensibile. La ricerca documenta fenomeni come i “false conflict errors” – quando il medico ha ragione ma cambia idea seguendo l’algoritmo sbagliato – e i “false confirmation errors” – quando medico e macchina si sbagliano insieme, rafforzandosi a vicenda nell’errore⁵.

Il medico e la macchina: una strana coppia

Questo non significa che dobbiamo buttare l’intelligenza artificiale nell’immondizia digitale. Significa che dobbiamo usarla con giudizio. Un medico che collabora con un algoritmo intelligente può ottenere risultati migliori di entrambi presi singolarmente. L’algoritmo vede pattern che sfuggirebbero all’occhio umano, il medico evita che la macchina confonda l’appendice con la milza. Uno studio di Stanford ha mostrato che ChatGPT da solo raggiungeva il 92% di accuratezza sui casi clinici, mentre i medici si fermavano al 74-76%⁶. Paradossalmente, però, i medici con accesso a ChatGPT non miglioravano significativamente la loro performance – segno che non si fidavano abbastanza dello strumento o non sapevano usarlo efficacemente.

Il punto è che la medicina non è solo diagnosi, è anche relazione. Un paziente spaventato ha bisogno di qualcuno che gli spieghi cosa sta succedendo, lo rassicuri, lo accompagni nel percorso di cura. Un algoritmo può identificare un tumore con precisione millimetrica, ma non può tenere la mano a una persona che ha paura. E poi, come ha chiarito una ricerca dell’università di Stanford, chi risponde quando l’intelligenza artificiale sbaglia? La responsabilità medico-legale rimane uno dei nodi irrisolti più critici⁷.

La lezione della vignetta

Quella vignetta racconta una verità più profonda: l’intelligenza artificiale può essere brillante e stupida allo stesso tempo. Come quegli studenti che sanno tutto della teoria ma poi non riescono ad attraversare la strada senza farsi investire.

In medicina, questo paradosso diventa pericoloso. Un errore di orientamento spaziale, una confusione tra farmaci simili, un’interpretazione letterale di un referto ambiguo: piccoli sbagli che possono avere conseguenze enormi.

Il futuro (con i piedi per terra)

Probabilmente vedremo sistemi ibridi: l’intelligenza artificiale gestirà i calcoli complessi, l’analisi di enormi quantità di dati, il riconoscimento di pattern sottili. I medici si occuperanno del ragionamento clinico, della verifica di coerenza, della relazione con il paziente. Una ricerca Microsoft ha sviluppato un sistema orchestrato (MAI-DxO) che combina più modelli di intelligenza artificiale e ha raggiunto l’85,5% di accuratezza sui casi più difficili del New England Journal of Medicine – mentre i medici esperti si fermavano al 20%⁸. Ma questi risultati, per quanto impressionanti, riguardano sempre casi “puzzle”, non la medicina quotidiana.

L’intelligenza artificiale non sostituirà i medici, ma li trasformerà in qualcosa di nuovo: medici aumentati, capaci di vedere oltre i limiti umani ma ancora abbastanza umani da non operare l’appendice dal lato sbagliato. Tuttavia, come sottolinea una ricerca pubblicata su Academic Emergency Medicine, gli strumenti di intelligenza artificiale non rientrano ancora in una supervisione normativa chiara e soffrono di molti rischi di malfunzionamento⁹.

Perché alla fine, in medicina come nella vita, non basta essere intelligenti. Bisogna anche essere saggi. E la saggezza, per ora, rimane una prerogativa tutta nostra.


Il dibattito sull’intelligenza artificiale in medicina è appena iniziato. Una cosa è certa: dovremo imparare a convivere con macchine che sanno molto ma capiscono poco. Speriamo di riuscirci senza troppi lividi.

Riferimenti

  1. GlobalRPH (2025). “How AI Achieves 94% Accuracy In Early Disease Detection: New Research Findings”. GlobalRPH. Link
  2. Jiang, L. Y. et al. (2025). “A systematic review and meta-analysis of diagnostic performance comparison between generative AI and physicians”. npj Digital Medicine, 8, 26. Link
  3. National Institutes of Health (2025). “NIH findings shed light on risks and benefits of integrating AI into medical decision-making”. NIH News Releases. Link
  4. Agency for Healthcare Research and Quality. “Artificial Intelligence and Diagnostic Errors”. PSNet Patient Safety Network. Link
  5. Chanda, T. et al. (2024). “False conflict and false confirmation errors are crucial components of AI accuracy in medical decision making”. Nature Communications, 15, 6865. Link
  6. Stanford Human-Centered AI Institute. “Can AI Improve Medical Diagnostic Accuracy?”. Stanford HAI. Link
  7. Mello, M. & Guha, N.. “Who’s at Fault when AI Fails in Health Care?”. Stanford Human-Centered AI Institute. Link
  8. Microsoft AI (2025). “The Path to Medical Superintelligence”. Microsoft AI. Link
  9. McCoy, L. G. et al. (2024). “Leveraging artificial intelligence to reduce diagnostic errors in emergency medicine: Challenges, opportunities, and future directions”. Academic Emergency Medicine. Link

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.