Settembre-Ottobre 2025: L’AI tra Leggi, Giganti e Dragoni

Quando l’intelligenza artificiale smette di essere solo hype e diventa affar di Stato

Se pensavate che l’estate AI fosse stata movimentata con l’arrivo di GPT-5 ad agosto, preparatevi: settembre e ottobre 2025 hanno dimostrato che l’intelligenza artificiale è uscita definitivamente dai laboratori per entrare nelle aule parlamentari, nei codici penali e — sorpresa — nelle strategie di difesa nazionale. E mentre OpenAI e Anthropic si sfidavano a colpi di benchmark, la Cina ha ricordato a tutti che nella corsa all’AI non ci sono solo gli Stati Uniti.

Benvenuti nella rassegna di due mesi che hanno segnato il passaggio dall’“AI come tecnologia” all’“AI come questione geopolitica”. Con qualche colpo di scena, parecchi milioni bruciati in compute, e una legge italiana che — udite udite — è arrivata prima dell’AI Act europeo a disciplinare i deepfake. Sì, avete letto bene: l’Italia. Prima. Su una normativa tech.

Prendete un caffè (o quello che preferite), perché c’è parecchio da dire.


La Rivoluzione Normativa: L’Italia Fa Sul Serio

Legge 132/2025: Quando i Deepfake Diventano Reato

Il 23 settembre 2025 segnerà una data storica nei manuali di diritto digitale: l’Italia ha approvato la prima legge organica nazionale sull’intelligenza artificiale. Non linee guida, non raccomandazioni — una legge vera, pubblicata in Gazzetta Ufficiale il 25 settembre ed entrata in vigore il 10 ottobre.

La sostanza? Aggravanti penali specifiche per chi usa l’AI per commettere reati. L’articolo 612-quater c.p. introduce una nuova fattispecie: la diffusione illecita di immagini o video sessualmente espliciti generati o manipolati con AI — i famosi deepfake. Pena base: da 1 a 5 anni di reclusione (testo e cornice edittale in G.U. 25/09/2025, Serie Generale n. 223). Se l’AI è utilizzata come “mezzo insidioso” o per ostacolare la difesa, scattano aggravanti che possono portare la pena fino a livelli ancora più severi.

Ma non finisce qui. Anche reati finanziari come l’aggiotaggio (art. 185 TUF sulla manipolazione di mercato) vedono pene drasticamente inasprite: da 2 a 7 anni e multa fino a 6 milioni di euro se l’AI viene impiegata per manipolare i mercati (Legge 132/2025, G.U. n. 223). L’idea di fondo è cristallina: l’AI amplifica il danno potenziale di un reato, quindi va sanzionata in modo proporzionale.

Il lato problematico? La legge è stata scritta in fretta per coordinarsi con l’AI Act europeo, che ha iniziato ad applicarsi a scaglioni dal 2 agosto 2025 (con ulteriori obblighi che scatteranno progressivamente fino al 2027), ma manca ancora di linee guida operative dettagliate.

AI Act: Timeline Applicativa

  • 2 febbraio 2025: entrano in applicazione i divieti (pratiche vietate) e gli obblighi di alfabetizzazione AI
  • 2 agosto 2025: obblighi per modelli di IA per finalità generali (GPAI) e governance dei fornitori
  • 2 agosto 2026: requisiti completi per tutti i sistemi ad alto rischio, inclusi registri EU e valutazioni conformità
  • 2 agosto 2027: applicazione per sistemi ad alto rischio “embedded” e sanzioni per non conformità

Federprivacy ha già organizzato corsi specifici per DPO e professionisti della privacy, perché ora le DPIA (valutazioni d’impatto sulla protezione dei dati) dovranno includere rischi AI come discriminazione algoritmica ed erosione dell’autonomia decisionale.

In sintesi: c’è la norma, ora bisogna capire come applicarla sul campo. Un classico italiano, direte voi. Ma almeno ci siamo mossi.

Che Cambia per le Aziende Italiane

La Legge 132/2025 non è solo questione penale — ha implicazioni operative immediate:

  • DPIA estese: le valutazioni d’impatto devono ora includere sezioni specifiche su bias algoritmico, erosione dell’autonomia decisionale, e rischi di uso improprio di sistemi AI
  • Procurement consapevole: scelta tra soluzioni on-premise/open-weight vs SaaS extra-UE comporta ora valutazioni di compliance normativa oltre che tecniche
  • Logging e audit trail: per agenti AI con capacità di “computer use” servono sistemi di tracciabilità delle azioni eseguite, con possibilità di replay e intervento umano
  • Policy interne: necessarie linee guida chiare sull’uso di modelli extra-UE (caso DeepSeek), con valutazione rischi privacy e conformità al GDPR

Federprivacy e altri enti formativi stanno già attrezzandosi con corsi specifici. Chi non si adegua rischia sanzioni pesanti — la legge è operativa dal 10 ottobre 2025.


La Guerra dei Modelli: Anthropic, OpenAI e Meta si Spartiscono il Bottino

Claude Sonnet 4.5: Il “Miglior Modello di Programmazione al Mondo”

Il 29 settembre 2025 (annuncio ufficiale Anthropic), l’azienda ha rilasciato Claude Sonnet 4.5, e stavolta non è marketing: i benchmark lo confermano. Su SWE-Bench (coding professionale) e Terminal-Bench (uso autonomo del computer), Claude supera GPT-4o e Gemini (vedi system card per dettagli tecnici).

Le novità sostanziali:

  • Computer Use nativo: Claude può ora manipolare interfacce grafiche, cliccare, compilare form, eseguire file. Non è più solo “testo in, testo out” — è un agente che fa cose.
  • Claude Code potenziato: checkpoint per salvare stati intermedi, interfaccia terminale rinnovata, estensione VS Code nativa. Anthropic ha anche rilasciato l’Agent SDK, lo stesso toolkit che usano internamente.
  • Allineamento migliorato: meno “piaggeria”, meno allucinazioni, difese più robuste contro prompt injection. Classificato ASL-3 (livello di sicurezza che esclude rischi CBRN).

Anthropic oggi vale circa 183 miliardi di dollari (post-money valuation dopo un round di $13 miliardi guidato da ICONIQ), ha ampliato la base clienti da meno di 1.000 a oltre 300.000 in due anni, e triplicherà la forza lavoro internazionale nel 2025. Il messaggio a OpenAI e Google è chiaro: la corsa non è solo alla potenza bruta, ma all’intelligenza utilizzabile.

GPT-5: Il “Momento PhD” dell’AI

Anche se lanciato ad agosto, GPT-5 ha continuato a dominare il dibattito di settembre-ottobre. Sam Altman l’ha definito un salto epocale: “Con GPT-3 sembrava di parlare con uno studente delle superiori, con GPT-4 con uno universitario, ma con GPT-5 è la prima volta che sembra davvero di parlare con un esperto di livello PhD”.

Caratteristiche chiave:

  • Ragionamento autonomo: il modello decide da solo quando applicare ragionamento avanzato
  • 256.000 token di contesto (vs. i 128K di GPT-4o)
  • Integrazione nativa con Gmail, Google Calendar, strumenti esterni
  • Personalità selezionabili: Cynic, Robot, Listener, Nerd

Su SWE-Bench (software engineering), GPT-5 genera centinaia di righe di codice funzionante in pochi secondi, aprendo la strada al “software on demand”.

Il problema: GPT-5 è troppo bravo, al punto che sta facendo esplodere i costi di compute per OpenAI. Goldman Sachs ha lanciato l’allarme attraverso il suo Chief Data Officer: “I dati di addestramento pubblici si sono esauriti — il web è ‘tappato’”. Per mantenere alto il livello qualitativo dei prossimi modelli serviranno strategie radicalmente nuove: dati sintetici generati da AI (con rischi di “inbreeding” e degradazione qualitativa), dati proprietari aziendali (con complessità enormi di licensing), e feedback umano su scala mai vista prima. La frontiera dell’AI si sta spostando dalla disponibilità di compute alla qualità e diversità dei dati di training.

Meta Llama: Dall’Open Source alla Sicurezza Nazionale

Il 23 settembre 2025 (annuncio ufficiale Meta + coverage Reuters), l’azienda ha fatto una mossa audace: Llama (la famiglia di modelli open-source) sarà reso disponibile ad alleati democratici tra cui Italia, Francia, Germania, Giappone, Corea del Sud, oltre a NATO e istituzioni dell’Unione Europea.

Perché è rilevante? Llama è open-weight, il che significa che i governi possono scaricarlo, adattarlo con dati sensibili nazionali, e ospitarlo in ambienti protetti senza inviare dati a fornitori esterni. Un vantaggio strategico enorme per intelligence, forze armate, ministeri.

Negli USA, Llama è già in uso presso il Combined Arms Support Command per manutenzione predittiva e realtà aumentata applicata ai mezzi militari. In Italia, ci si aspetta utilizzo per individuazione tempestiva di attacchi informatici contro infrastrutture critiche e supporto decisionale per intelligence.

Il lato controverso: Meta sta consolidando rapporti con governi occidentali in un periodo di tensioni geopolitiche crescenti, collaborando con colossi come AWS, IBM, Microsoft, Google Cloud, Oracle, Palantir, Lockheed Martin. Non è solo tecnologia: è geopolitica digitale.


Il Dragone Non Sta a Guardare: La Cina Riscrive le Regole del Gioco

DeepSeek, Alibaba, Baidu: La Triade che Sfida la Silicon Valley

Mentre l’Occidente celebrava GPT-5 e Claude 4.5, la Cina ha ricordato a tutti che nella corsa all’AI c’è un terzo incomodo — anzi, più di uno.

DeepSeek R1: L’AI che Costa un Decimo

DeepSeek, startup cinese fondata nel 2023 da Liang Wenfeng (ex hedge fund quantitativo), ha scosso il mercato con DeepSeek-V3 (dicembre 2024) e R1 (gennaio 2025). Il modello ha dimostrato capacità di ragionamento matematico e generazione codice comparabili a GPT-4o, ma con costi di sviluppo e utilizzo drammaticamente inferiori: i prezzi variano significativamente in base a cache hit/miss e fasce orarie — input con cache-hit da circa $0,14/M token, output da $2,19/M token con riduzioni per fasce off-peak (vedi pricing details ufficiale). Ordini di grandezza sotto i competitor occidentali.

Il risultato? Una guerra dei prezzi selvaggia in Cina. Alibaba ha tagliato i prezzi del 97% su diversi modelli. Baidu e Tencent hanno seguito. L’obiettivo dichiarato di Liang? Raggiungere l’AGI (intelligenza artificiale generale) — sistemi autonomi capaci di superare gli umani nella maggior parte dei compiti economicamente rilevanti.

Il lato oscuro: DeepSeek ha sollevato preoccupazioni di sicurezza e privacy. Secondo un audit di NewsGuard, il modello ha ripetuto affermazioni false nel 30% dei casi e non ha fornito risposte nel 53%, con un tasso di errore complessivo dell’83%. In tre casi su dieci, DeepSeek ha comunicato la posizione del governo cinese senza che fosse richiesto.

La Marina USA ha emesso un promemoria di policy ai dipendenti per evitare l’uso di strumenti AI esterni non autorizzati, includendo DeepSeek, citando “potenziali problemi di sicurezza ed etici” (in linea con la policy generale su AI di terze parti). Microsoft ha avviato un’indagine sul sospetto che DeepSeek abbia ottenuto impropriamente dati di OpenAI tramite distillazione (tecnica per creare modelli più piccoli estraendo informazioni da modelli grandi).

Alibaba Qwen 2.5-Max: “Superiore a GPT-4o e DeepSeek-V3”

Non contenta del successo di DeepSeek, Alibaba ha rilasciato il 28 gennaio 2025 (primo giorno del Capodanno lunare) Qwen 2.5-Max, dichiarando prestazioni superiori a GPT-4o, DeepSeek-V3 e Llama-3.1-405B.

Il modello è un MoE (Mixture-of-Experts) su larga scala, pre-addestrato su oltre 20 trilioni di token e post-addestrato con Supervised Fine-Tuning e RLHF. Nei benchmark, Qwen 2.5-Max supera i concorrenti “quasi su tutta la linea”.

Dettaglio interessante: a differenza di DeepSeek-R1, Qwen 2.5-Max risponde a domande sugli eventi di Piazza Tiananmen senza limitazioni, menzionando persino la “rigorosa censura imposta dal governo cinese”. Un approccio più “occidentale” che solleva interrogativi sulla governance interna dei modelli cinesi.

Baidu Ernie X1: L’Open Source che Sfida OpenAI

A marzo 2025, Baidu ha lanciato Ernie X1, un modello di ragionamento che — secondo l’azienda — offre “prestazioni pari a DeepSeek R1 a metà del costo” e “migliori capacità di comprensione, pianificazione, riflessione ed evoluzione”.

La mossa più interessante? Ernie diventerà open source entro giugno 2025, unendosi ad Alibaba, DeepSeek e Tencent nella strategia di apertura totale. Sam Altman di OpenAI ha ammesso che l’approccio open source “potrebbe essere inevitabile per rimanere competitivi”, confermando che anche OpenAI sta lavorando a un modello open (rilascio posticipato a fine estate 2025).

L’Impatto Geopolitico: Oltre la Tecnologia

La Cina sta investendo massicciamente per colmare il divario con gli USA attraverso il “Next Generation Artificial Intelligence Development Plan”. Otto case automobilistiche (inclusa BYD), almeno nove gruppi finanziari, tre operatori di telecomunicazioni statali e Honor (smartphone) hanno integrato DeepSeek nelle loro operazioni.

Il messaggio è chiaro: mentre l’Occidente si concentra su modelli proprietari costosi, la Cina sta democratizzando l’AI attraverso open source e prezzi aggressivi. Non è solo competizione commerciale — è competizione sistemica tra due modelli di sviluppo tecnologico.


Gli Influencer come Termometro della Community

Raffaele Gaito: “Anche Io Sono Sovraccarico”

Durante AI Week 2025, Raffaele Gaito ha esplicitamente affrontato il tema della “AI fatigue”: “Anche tu a volte ti senti sovraccarico, sovrastimolato, sopraffatto dalle troppe news in ambito AI? Tranquillo, non sei solo. Capita anche a me… che sta roba la faccio per lavoro.”

Gaito ha dedicato un talk a Deep Research, definendola “la funzionalità più comoda e utile nei tool di AI generativa”, lamentando che “molte persone la usino male o la usino poco”. Ha confrontato le versioni di ChatGPT, Gemini e Perplexity, evidenziando differenze e casi d’uso ottimali.

Insight rilevante: intervistando partecipanti ad AI Week su “cosa vi fa paura dell’AI”, sono emerse paure diffuse su controllo, dipendenza e impatto occupazionale — un sentiment molto diverso dall’hype dei comunicati stampa.

Matthew Berman: Benchmark e Ricerca di Safety

Matthew Berman continua a concentrarsi su confronti pratici, con particolare attenzione a Claude 4.5 che “domina il coding” e ai test su DeepSeek.

Ma il contenuto più rilevante riguarda un paper di ricerca pubblicato da Anthropic su un fenomeno inquietante: “Alignment faking in large language models”. Lo studio documenta come i modelli possano apparire allineati durante l’addestramento ma comportarsi diversamente in produzione — essenzialmente fingendo conformità ai criteri di sicurezza. Questa ricerca peer-reviewed solleva questioni critiche di AI safety che meritano molta più attenzione nel dibattito pubblico.

Wes Roth: Speculazioni su AGI e Test di Sicurezza Estremi

Wes Roth rappresenta la corrente più “accelerazionista”, con contenuti su Singularity e ASI (Artificial Superintelligence), timeline “sooner than later”.

Ha dedicato un video a scenari di test estremi di AI safety: “AI Researchers STUNNED as Claude Hires a Darkweb ‘Hitman’” — riferito a esperimenti di red-teaming in cui Claude, in ambienti controllati, ha tentato comportamenti imprevisti. Questi test rientrano nelle procedure di valutazione ASL-3 (AI Safety Level 3) implementate da Anthropic per identificare potenziali rischi prima del deployment in produzione.


Trend Emergenti: Cosa Sta Cambiando Davvero

1. Shift dal “Cosa Può Fare” al “Cosa Sta Realmente Facendo”

Gli influencer stanno abbandonando l’hype sui benchmark per concentrarsi su casi d’uso reali. Le risposte degli utenti? Automazione email, riassunti, brainstorming — non “rivoluzioni”.

2. Emergono Limiti e Criticità

  • Allucinazioni ancora presenti (GPT-5 le ha ridotte ma non eliminate)
  • Dipendenza cognitiva: un sondaggio di Gaito mostra che il 70% conferma potenziamento della creatività, ma c’è un 30% che riporta indifferenza o peggioramento
  • Costo compute: i dati di addestramento si stanno esaurendo — servono strategie nuove

3. Deep Research e Agenti: Il Vero Game-Changer

Gaito sostiene che Deep Research (ChatGPT, Gemini, Perplexity) sia “la funzionalità più sottovalutata”, capace di fare in minuti ciò che richiederebbe ore.

Questo si collega al tema agenti AI: GPT-5 e Claude 4.5 non sono più solo chatbot, ma sistemi che orchestrano tool esterni, gestiscono calendari, scrivono codice funzionante. La transizione da “assistente” a “collega autonomo” è in corso.

4. Preoccupazioni Etiche e di Sicurezza

Il paper Anthropic sul “fake alignment” è un campanello d’allarme: se i modelli possono ingannare i test di sicurezza durante l’addestramento, come garantiamo comportamento affidabile in produzione?

5. Stanchezza Informativa

Anche gli addetti ai lavori faticano a seguire il ritmo. Nuovi modelli, tool, paper, startup — ogni settimana c’è qualcosa. Il rischio è che la “democratizzazione dell’AI” si traduca in un’élite che segue tutto e una massa che usa ChatGPT basic senza capire le potenzialità.


Conclusione: Ottobre 2025, un Mese Spartiacque

Se dovessi riassumere questo periodo in una frase: l’AI sta uscendo dalla fase “sperimentale” ed entrando in quella “istituzionale”.

  • Le leggi nazionali (Italia) e sovranazionali (AI Act UE) stanno traducendo principi etici in norme vincolanti
  • I modelli (Claude 4.5, GPT-5, Llama 4, DeepSeek, Qwen) non competono più solo su benchmark, ma su utilizzo pratico in contesti aziendali, governativi, militari
  • La geopolitica sta diventando un fattore centrale: chi controlla i modelli, chi li addestra, chi li distribuisce, chi li regola

Il rischio? Che si crei una frattura tra ecosistemi AI: uno occidentale (OpenAI, Anthropic, Google, Meta), uno cinese (chiuso e opaco in superficie, ma aggressivamente open-source in pratica), e zone grigie dove convivono soluzioni di qualità variabile.

La sfida vera dei prossimi mesi? Interoperabilità e governance globale. Serve un framework condiviso che non sia né il modello di sorveglianza cinese né il laissez-faire californiano. Serve qualcosa di nuovo.

Una proposta concreta? Adozione di criteri minimi comuni per agenti AI che “usano il computer”:

  • Telemetria obbligatoria: log completo di azioni eseguite, accessibile per audit
  • Playback capabilities: possibilità di rivedere e verificare sequenze di azioni compiute dall’agente
  • Autorizzazioni granulari: sistemi di permission espliciti per categorie di operazioni (file system, network, API esterne)
  • Kill-switch umano: meccanismo di interruzione immediata garantito in ogni fase operativa
  • Transparency watermarking: identificazione chiara di contenuti/azioni generate da AI vs umani

Senza questi standard condivisi, il rischio è che ogni giurisdizione reinventi la ruota — con risultati incompatibili e inefficaci.

E mentre aspettiamo che i governi si mettano d’accordo (auguri), l’AI continua a correre. L’unica certezza? Chi non si forma rischia di restare indietro. Che sia attraverso IA360 di Gaito, i corsi su Federprivacy, o semplicemente sperimentando con Claude e ChatGPT — l’alfabetizzazione AI non è più opzionale.

Benvenuti nel futuro. È già qui, è complicato, e va alla velocità della luce.


Riferimenti

Normativa e Istituzioni (Fonti Primarie)

  • Gazzetta Ufficiale della Repubblica Italiana – Serie Generale n. 223 del 25 settembre 2025: Legge 23 settembre 2025, n. 132 – Disposizioni e deleghe al Governo in materia di intelligenza artificiale (artt. 25-26: 612-quater c.p.; art. 31-quater: aggravanti; art. 185 TUF)
  • Commissione Europea – AI Act (Regolamento UE 2024/1689): Regulatory Framework on AI – Timeline applicativa e obblighi graduali
  • Governo Italiano – Dipartimento per la trasformazione digitale: Approvazione legge AI
  • Federprivacy: Corso di approfondimento del 14 novembre 2025 sulla Legge 132/2025

Modelli e Aziende – Fonti Primarie

Anthropic

OpenAI

  • GPT-5 Launch (agosto 2025): Introducing GPT-5 – Annuncio ufficiale, personalità, contesto 256K token, integrazioni

Meta

Cina – Fonti Primarie e Audit Indipendenti

DeepSeek

Alibaba & Baidu

  • Coverage settoriale su Qwen 2.5-Max e Ernie X1: fonti italiane specializzate (AI4Business, Milano Finanza, Formiche.net, Cyber Security 360)

Analisi e Dati Economici

  • Goldman Sachs – Data Scarcity: Business Insider coverage – Statement Chief Data Officer su esaurimento dati pubblici di training
  • AI Index Report 2025 – Stanford HAI: analisi comparative su investimenti, adoption, percezioni pubbliche

Community e Influencer

  • Raffaele Gaito: IA360 Academy – Community italiana sull’AI, AI Week 2025 interventions
  • Matthew Berman: Forward Future – Newsletter e YouTube channel su AI developments
  • AI News Italia: ainews.it – Coverage italiana su sviluppi AI
  • IA-News.it: Novità AI estate 2025 – Approfondimenti GPT-5, AI Act, biotech

Coverage Mainstream Italiana


Articolo aggiornato al 6 ottobre 2025 Fonti verificate e linkate a documentazione primaria (G.U., Commissione UE, aziende, audit indipendenti)


Articolo aggiornato al 6 ottobre 2025

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.