L’Architetto, il Banchiere, l’Enciclopedista e il Revisionista Tardivo
… senza farsi sedurre dai benchmark né dalle promesse dei vendor
L’articolo analizza il panorama dell’intelligenza artificiale nell’autunno 2025, dove cinque ecosistemi principali si contendono il budget degli utenti: Claude Sonnet 4.5 (Anthropic), GPT-5 e GPT-OSS (OpenAI), Gemini 2.5 Pro e Gemma 3 (Google), Microsoft MAI, e una vasta gamma di modelli open-weight come DeepSeek, Llama 4, Qwen 3. Nessun modello è “il migliore” in assoluto: la scelta dipende dai propri vincoli, esigenze e dal tipo di attività.
- Ad ogni modello è associata una metafora professionale (l’architetto, il banchiere, l’enciclopedista, il revisionista tardivo) e una strategia architetturale differente:
- Claude punta su affidabilità e processi lunghi.
- GPT-5 sulla versatilità, convenienza e performance economica.
- Gemini su context window enormi e multimodalità.
- Microsoft sull’integrazione con l’ecosistema Office.
- Open-weight sulla sovranità digitale e controllo.
- Il contesto 2025: otto rilasci maggiori di modelli in nove mesi, forte spinta verso open source dovuta anche a pressioni geopolitiche (il rilascio di GPT-OSS come risposta all’avanzata cinese con DeepSeek e a richieste politiche di allineamento dei valori nei modelli open).
- Analisi delle caratteristiche principali dei modelli:
- Claude Sonnet 4.5: affidabile su task lunghissimi, caro, ottimo per agenti sui workflow complessi, meno adatto a contenuti creativi o Q&A rapido.
- GPT-5 & GPT-OSS: GPT-5 è il modello cloud più conveniente, router automatico tra architetture interne, ottimizzato per writing, coding, health. GPT-OSS è open, self-hosted, zero API costi, hardware richiesto, controllo totale dei dati.
- Gemini 2.5 Pro: context window sterminato e multimodalità nativa; eccelle su attività creative, video e design; meno solido su coding complesso. Gemma 3 offre multimodalità accessibile su hardware limitato.
- Microsoft MAI: nuovi modelli testuali, vocali e di generazione immagini, integrabili con Copilot e Azure, vantaggio in ambito business per chi è già cliente Microsoft.
- Open-weight self-hosted: DeepSeek, Llama 4, Qwen 3, Mixtral, Gemma 3—risparmi enormi sui costi per grandi volumi, pieno controllo sul deployment, compliance GDPR.
- Benchmark e trade-off: ogni modello eccelle in contesti specifici; Claude per processi lunghi e coerenza, GPT-5 per content e coding ad alto volume, Gemini per creatività multimodale, MAI per chi è già nell’ecosistema Microsoft, i modelli open per chi ha bisogno di sovranità e compliance.
- Decision tree finale: l’articolo suggerisce la scelta del modello più adatto in base a scenari d’uso reali (es. sviluppo software, content generation, analisi documentale, compliance, prototipazione rapida, reasoning profondo).
- Conclusione: la domanda giusta non è “qual è il migliore” ma “quale modello risolve il mio problema specifico, entro i miei vincoli, e che compromessi sono disposto ad accettare”.
In sintesi: il mercato delle AI è maturo, non esiste un best absolute, tutto dipende dal caso d’uso e dai compromessi tra costi, performance, controllo e compliance. Tra sei mesi, la gerarchia cambierà nuovamente.
Esiste un momento preciso in cui capisci che il mercato dell’intelligenza artificiale è maturato: quando nessun modello è oggettivamente il migliore. È come chiedersi se sia meglio un cacciavite a croce o uno a taglio dritto – la risposta dipende dalla vite che hai davanti, dal budget che hai in tasca, e soprattutto dalla domanda che nessuno ti fa mai: quella vite la vuoi avvitare nel tuo laboratorio o sul server di qualcun altro?
Siamo nell’autunno del 2025 e cinque ecosistemi si contendono il tuo budget mensile con promesse che oscillano tra il messianico e il pragmatico: Claude Sonnet 4.5, GPT-5 e famiglia GPT-OSS, Gemini 2.5 Pro e Gemma 3, Microsoft con MAI, e l’intera galassia dei modelli open-weight (DeepSeek, Llama 4, Qwen 3). Tutti si proclamano “il migliore”. Nessuno sta mentendo. Tutti stanno omettendo qualcosa.
Il problema non è tecnico, è architetturale: ogni modello ottimizza per un futuro diverso. Claude scommette sull’affidabilità nei processi lunghi. GPT-5 sulla versatilità economica. Gemini sulla finestra di contesto impossibile. Microsoft sull’integrazione con tutto quello che già usi. GPT-OSS sulla democratizzazione radicale. E gli open-weight su sovranità digitale e controllo totale. Non c’è una scelta giusta in assoluto – c’è solo quella che si allinea ai tuoi vincoli, che raramente coincidono con quelli dei benchmark pubblici.
Questo articolo non ti dirà quale comprare. Ti darà gli strumenti per capire quale stai già comprando senza saperlo, perché dietro ogni interfaccia ci sono compromessi nascosti che nessuno ti spiega finché non hai bruciato un paio di migliaia di token su attività sbagliate – o peggio, finché non scopri che i dati sensibili del tuo cliente sono finiti su server americani senza che tu sapessi che esisteva un’alternativa.
Il Contesto: Cosa È Davvero Cambiato nel 2025
A gennaio 2025, il panorama sembrava stabilizzato. GPT-4o dominava, Claude 3.5 Sonnet era l’alternativa affidabile, Gemini 1.5 Pro lo sfidante economico. Poi è successo l’inevitabile: otto rilasci maggiori in nove mesi.
La timeline vera:
- Gennaio: DeepSeek-R1 shock – reasoning cinese a costi impossibili
- Marzo: Gemma 3 (Google) – multimodale su singola GPU
- Agosto: GPT-5 + GPT-OSS (OpenAI) – il grande ritorno all’open
- Agosto: MAI-Voice-1 e MAI-1-preview (Microsoft) – primo modello proprietario
- Settembre: Claude Sonnet 4.5 (Anthropic) – il più affidabile per processi lunghi
- Ottobre: MAI-Image-1 (Microsoft) – photorealistic generation
- Ottobre: Gemini 2.5 Pro consolidato come leader multimodale
La vera domanda è: perché ora? Perché cinque aziende che seguono tabelle di marcia separate hanno deciso di lanciare quasi in contemporanea? La risposta più cinica è anche la più accurata: hanno raggiunto un plateau tecnico. I salti di qualità tra versioni successive si sono ridotti. Nessuno ha più il monopolio dell’eccellenza in un’area. Il vantaggio competitivo si è spostato da “chi ha il modello migliore” a “chi rende più semplice usarlo per l’attività giusta”.
Ma c’è una seconda ragione, più scomoda: la pressione geopolitica. DeepSeek ha dimostrato che l’AI cinese non è solo competitiva – è superiore in efficienza costo/performance. OpenAI che rilascia GPT-OSS ad agosto, dopo sei anni di chiusura totale? Non è generosità. È strategia di contenimento. Sam Altman lo ha detto esplicitamente a gennaio, dopo lo shock DeepSeek: “Siamo stati sul lato sbagliato della storia quando si tratta di open source”.
Traduzione: se non apriamo noi, la Cina dominerà l’ecosistema open. E chi controlla l’infrastruttura open controlla i valori incorporati nei modelli. L’amministrazione Trump ha fatto pressioni esplicite perché i lab USA rilasciassero modelli open “allineati con valori democratici”. GPT-OSS è arrivato quattro mesi dopo.
Questa è la vera partita. I benchmark sono solo la superficie.
Claude Sonnet 4.5: L’Architetto Che Lavora di Notte
Prezzo: $3 input / $15 output per milione di token
Context Window: 200k standard (1M in beta)
Punto di Forza: Processi autonomi lunghi (30+ ore)
Punto Debole: Costo 2.4x superiore a GPT-5
Claude Sonnet 4.5 è l’unico modello sul mercato progettato esplicitamente per non rompersi durante attività che durano giorni. Non sto parlando di conversazioni lunghe – quello lo fanno tutti. Parlo di agent che lavorano su codebase complesse per 30 ore consecutive senza perdere il filo, senza dimenticare vincoli dichiarati 50.000 token prima, senza introdurre regressioni perché “non ricordava” di aver già implementato quella funzione.
Anthropic ha fatto una scommessa precisa: il futuro dell’AI non sono risposte veloci a domande isolate, ma sistemi che orchestrano strumenti complessi in flussi di lavoro a più fasi. Per questo Claude eccelle in:
Agentic Coding: Su SWE-bench Verified (problemi GitHub reali) segna 77.2% standard, 82% con parallel compute. GPT-5 Codex? 74.5%. La differenza sembra piccola, ma quando stai debuggando per ore quella precisione extra è la differenza tra “funziona” e “quasi funziona”.
Computer Use: Su OSWorld (attività che richiedono navigare interfacce grafiche, cliccare, leggere, decidere) Claude fa 61.4%. Opus 4.1? 44.4%. Nessun altro modello riporta risultati qui, il che è indicativo – la maggior parte dei vendor non ha nemmeno provato perché è troppo difficile.
Memory & Context Management: Il trucco non è solo avere 200k token, è gestirli. Claude pulisce automaticamente la history degli strumenti chiamati, previene l’abbandono delle attività, mantiene coerenza cross-conversazionale. Non è magia, è engineering solido applicato al problema giusto.
Quando Claude È la Scelta Sbagliata
Se stai scrivendo email, generando contenuti creativi, o facendo Q&A rapido, stai sprecando soldi. Claude costa il doppio di GPT-5 per output. A parità di qualità percepita su attività semplici, stai pagando per feature che non usi (reliability a lungo termine, orchestrazione degli strumenti complessa). È come noleggiare un camion per portare la spesa a casa – funziona, ma è ridicolo.
Stesso discorso se operi a volumi altissimi con budget limitato. Un’API che genera 10 milioni di token/giorno su attività standard pagherebbe $150k/mese con Claude vs $100k con GPT-5. Quella differenza finanzia un intero team junior.
GPT-5 e la Famiglia GPT-OSS: Il Banchiere Efficiente Diventa Populista
GPT-5 (API Cloud)
Prezzo: $1.25 input / $10 output per milione di token
Context Window: 400k
Punto di Forza: Costo/performance ottimale per attività generiche
Punto Debole: Meno reliable su flussi di lavoro lunghi
GPT-OSS-120b / GPT-OSS-20b (Open Weight)
Prezzo: Zero API, costo hardware (~$25-30k setup iniziale per 120b)
Context Window: 128k
Punto di Forza: Controllo totale, nessun rate limit, Apache 2.0
Punto Debole: Richiede competenza tecnica per deployment
Il 5 agosto 2025 è una data che va ricordata. OpenAI – l’azienda che per sei anni ha incarnato l’approccio closed-source – ha rilasciato GPT-OSS, i primi modelli open-weight dalla generazione GPT-2 del 2019. Non è solo un rilascio tecnico. È un cambio di paradigma strategico che smonta completamente la narrativa “API cloud o niente”.
GPT-5: L’Evoluzione del Cloud
GPT-5 non è “il modello migliore” – è il modello più conveniente che fa quasi tutto bene. L’approccio è chirurgico: OpenAI ha identificato i tre casi d’uso dove ChatGPT vede più traffico (writing, coding, health) e ha ottimizzato specificamente per quelli.
Il risultato è un modello che:
- Costa 60% meno di Claude per performance comparabili su attività standard
- Usa meno token per completare le stesse attività (router intelligente che seleziona automaticamente tra modello veloce e modello profondo)
- Scala benissimo per distribuzione enterprise ad alto volume
Su AIME 2025 (matematica avanzata) GPT-5 fa 94.6% senza strumento, Claude 87%. Su HealthBench Hard (medicina) GPT-5 salta da 31.6% a 46.2% – un miglioramento che vale letteralmente vite umane se stai costruendo assistenti diagnostici.
Il Router: Feature o Bug?
A differenza di Claude che offre mode switching manuale (fast vs thinking), GPT-5 decide automaticamente quale architettura usare. È brillante? Sì. È anche opaco. Non sai mai esattamente quale modello stai usando, quali euristiche ha applicato il router, se un’attività simile domani verrà gestita diversamente. Per alcuni casi d’uso (audit trail, compliance, riproducibilità) questa variabilità è inaccettabile. Per altri (consumer apps, content generation) è un vantaggio perché ottimizza costo senza che tu debba pensarci.
GPT-OSS: La Svolta Open
Poi c’è GPT-OSS, che è tutto un altro gioco. Due modelli – 120B e 20B parametri totali – entrambi Mixture-of-Experts con quantizzazione MXFP4 nativa. Il 120B gira su singola H100 (80GB), il 20B su laptop consumer (16GB RAM). Licenza Apache 2.0 con patent grant – la più permissiva che esista. Zero restrizioni commerciali, zero royalty, piena libertà di modificare e redistribuire.
Performance competitive: Su Codeforces (competitive coding), gpt-oss-120b fa 2622, battendo DeepSeek-R1 (2580) e dominando Llama 4 Maverick (2450). Su AIME 2024/2025 (matematica olimpiadi), il 20B batte o3-mini nonostante sia molto più piccolo. Su HealthBench, il 120B supera o4-mini.
Non è “quasi competitivo”. È leader nella categoria open-weight.
Ma c’è un elefante nella stanza: safety filtering aggressivo. OpenAI ha incorporato filtri così rigidi che il modello rifiuta attività perfettamente legittime (analisi medica dettagliata, drafting contratti legali, creative writing su temi sensibili). La community ha immediatamente rilasciato versioni “abliterate” (safety rimosso), creando un dilemma per le enterprise: usi la versione ufficiale (limitata ma sicura) o quella abliterata (utile ma rischiosa reputazionalmente)?
Quando GPT-5 Ha Senso, Quando GPT-OSS Domina
GPT-5 se:
- Volumi medio-alti (5-50M token/giorno) su attività standard
- Budget limitato e nessuna infrastruttura esistente
- Team senza competenza ML per self-hosting
- Serve velocità di deployment (API pronta in 5 minuti)
GPT-OSS se:
- Dati sensibili + vincoli GDPR/compliance rigorosi
- Volumi altissimi (>50M token/giorno) dove il TCO cloud diventa insostenibile
- Serve fine-tuning domain-specific su dati proprietari
- Latenza ultra-bassa è critica (manufacturing, trading)
- Filosofia aziendale orientata a sovranità digitale e indipendenza da vendor
Il break-even tra cloud e self-hosting GPT-OSS? Circa 30-50M token/giorno. Sotto quella soglia, il cloud costa meno (nessun CAPEX hardware, nessun personale dedicato). Sopra, self-hosting GPT-OSS diventa drasticamente più economico – stiamo parlando di risparmi nell’ordine di $60-80k/mese su volumi enterprise tipici.
Gemini 2.5 Pro e Gemma 3: L’Enciclopedista Multimodale e il Suo Fratello Minore
Gemini 2.5 Pro (Cloud)
Prezzo: $1.25 input / $10 output per milione di token
Context Window: 1M (2M in arrivo)
Punto di Forza: Context window mastodontico + multimodale nativo
Punto Debole: Performance altalenante su coding complesso
Gemma 3 (Open Weight)
Parametri: 1B / 4B / 12B / 27B (quattro varianti)
Context Window: 32k (1B) / 128k (altri)
Punto di Forza: Multimodale nativo, singola GPU, Apache-like license
Punto Debole: Safety filtering Google + 1B solo text
Google ha fatto una scommessa precisa: il futuro è multimodale massiccio. Gemini 2.5 Pro non compete su quanto è bravo in singole attività – compete su quante attività diverse può gestire simultaneamente grazie a un context window che è letteralmente 5x quello di Claude e 2.5x quello di GPT-5.
Un milione di token sono ~30.000 righe di codice, o 50-60 PDF tecnici da 20 pagine, o un intero romanzo. Puoi caricare tutto il tuo codebase in una singola conversazione e dire “trova tutti i punti dove usiamo questa libreria deprecated e suggerisci alternative”. Non frammenti, non perdi contesto, non devi orchestrare richieste multiple.
Dove Gemini Eccelle Davvero
Multimodale profondo: Non è solo “capisce immagini”. È che capisce relazioni tra immagini, testo, audio, video in modo integrato. Sviluppatori lo lodano come “UI king” – dai un mockup e genera HTML/CSS che lo replica perfettamente, compresi dettagli di spacing e animazioni che altri modelli ignorano.
Video Understanding: Su VideoMME fa 84.8%. Puoi dargli 20 minuti di screencast e chiedergli “a che minuto implemento la funzione di login e perché ho scelto quell’approccio?”. Funziona davvero, non è demo.
WebDev Specifico: Leader su WebDev Arena per build di app esteticamente gradevoli e funzionali. Se il tuo output finale è un sito/dashboard, Gemini è probabilmente la scelta migliore.
Il Problema del Coding “Sostanziale”
Claude 4 fa 72.7% su SWE-bench Verified. GPT-5 Codex 74.5%. Gemini 2.5 Pro? 63.8%. La differenza non è trascurabile. Utenti riportano che Gemini è “better at underlying code and making things more functional” ma Claude è “very good at visuals, front-end making things look really pretty”.
Traduzione: Gemini eccelle quando l’attività è prevalentemente creativa/estetica ma meno su architettura software complessa o debugging profondo. Se stai ristrutturando un’app enterprise con 200k righe di codice legacy, Claude/GPT-5 sono più affidabili. Se stai prototipando rapidamente una landing page con animazioni fighe, Gemini è imbattibile.
Gemma 3: Il Populista Multimodale
Poi c’è Gemma 3, rilasciata a marzo 2025 – completamente ignorata dall’articolo originale nonostante sia uno dei rilasci più significativi dell’anno. Quattro varianti (1B, 4B, 12B, 27B), tre di esse multimodali native (vision-language), tutte con licenza permissiva simile ad Apache 2.0.
Performance sorprendente: Su LMArena, Gemma 3 27B ha ottenuto Elo score di 1338, battendo Llama-405B, DeepSeek-V3, e o3-mini. Tutto questo girando su singola GPU. È “the world’s best single-accelerator model” secondo Google, e i benchmark confermano.
Dove è impressionante:
- Multilingue nativo: 140+ lingue supportate, non solo inglese
- Vision capabilities: 128k token context = ~30 immagini ad alta risoluzione, o 300+ pagine di libro, o un’ora di video
- Efficienza hardware: 27B gira su singola H100, 4B su GPU consumer, 1B su mobile
Dove delude:
- Variante 1B è text-only (no vision)
- Safety filtering Google è aggressivo quanto OpenAI
- Performance su coding complesso (non SWE-bench ma progetti reali multi-file) è inferiore a GPT-OSS/Llama 4
Quando scegliere Gemma 3:
- Multimodale è critico (image/video analysis)
- Budget hardware limitato (non puoi permetterti cluster GPU)
- Serve supporto multilingue forte (non solo inglese)
- Privacy/compliance richiedono self-hosting ma non hai expertise per modelli giganti
Gemma 3 è il compromesso intelligente tra performance cloud-tier e accessibilità hardware consumer. Non è il migliore in nessuna categoria singola, ma è sufficientemente buono in molte categorie contemporaneamente – che è esattamente quello che serve per prototipare velocemente o deployare su edge.
Microsoft MAI: Il Revisionista Tardivo Che Gioca su Tre Tavoli
Prezzo: Da gratis a $200/mese (dipende da quale “Copilot” intendi)
Modelli: GPT-4 Turbo, GPT-4o, GPT-5 + MAI-1-preview, MAI-Voice-1, MAI-Image-1 (proprietari Microsoft)
Punto di Forza: Integrazione nativa con ecosistema Microsoft + modelli in-house emergenti
Punto Debole: Frammentazione confusionaria, vendor lock-in, modelli proprietari ancora immaturi
Fino ad agosto 2025, questa sezione sarebbe stata semplice: “Microsoft non ha modelli propri, rivende OpenAI con markup”. Poi è successo l’inevitabile: Microsoft AI (guidata da Mustafa Suleyman, ex DeepMind/Inflection) ha rilasciato la famiglia MAI – tre modelli completamente proprietari che segnano la svolta strategica più significativa dell’anno.
I Modelli MAI: Cosa Sono Davvero
MAI-Voice-1 (agosto 2025): Speech generation che genera 1 minuto di audio in <1 secondo su singola GPU. Già integrato in Copilot Daily e Podcasts. Nelle comparazioni blind con OpenAI real-time voice, utenti riportano che suona “more human-like”, con pacing e intonazione superiori.
MAI-1-preview (agosto 2025): Primo foundation model text Microsoft trainato end-to-end. Mixture-of-experts, ~15k H100 GPUs. Attualmente #15 su LM Arena, sopra GPT-4.1 Flash, sotto Gemini 2.5 Flash. In rollout graduale dentro Copilot per “text use cases”.
MAI-Image-1 (ottobre 2025): Image generation photorealistic, #9 su LM Arena Text-to-Image. Prossimamente in Copilot e Bing Image Creator come alternativa a DALL-E.
Perché Questo Cambia Tutto (e Niente)
Microsoft aveva un problema strutturale: dipendeva totalmente da OpenAI, che nel frattempo stava diventando competitor diretto (Stargate, partnership alternative). La relazione era tesa – OpenAI lamentava cloud compute insufficiente, Microsoft criticava GPT-4 come “too expensive and slow”. Salesforce CEO Marc Benioff aveva previsto: “Microsoft is building their own AI and I don’t think Microsoft will use OpenAI in the future”.
Aveva ragione. Ma anche torto. Perché Microsoft non sta sostituendo OpenAI – sta costruendo optionality. I modelli MAI sono “off-frontier” (parole di Suleyman): più economici, più veloci, sufficientemente buoni per la maggioranza delle attività consumer. GPT-5/Claude rimangono per casi d’uso premium dove cutting-edge conta davvero.
La Strategia: Multi-Model Orchestration
Copilot non è più “un brand su OpenAI”. È diventato un orchestratore multi-model:
- Copilot Free: Gratis, mix GPT-4 Turbo + MAI-1-preview (in rollout), priorità bassa
- Copilot Pro ($20/mese): GPT-4 Turbo/MAI prioritari, integrazione Office web apps, MAI-Voice-1
- Copilot for Microsoft 365 ($30/utente/mese): Accesso Graph API (dati aziendali), integrazione Teams/Outlook/SharePoint, router intelligente tra modelli
- GitHub Copilot ($19-39/utente/mese): GPT-4o mini tuned su 275k repo
- Copilot Studio ($200/mese base): Custom agents, può usare MAI via API + modelli esterni (xAI, Meta, Anthropic, DeepSeek)
Il schema è chiaro: Microsoft sta costruendo un model-agnostic platform. Usa il modello migliore per ogni attività, che sia proprio, partner, o open-source. È l’opposto della strategia verticale di Anthropic/OpenAI.
I Modelli MAI Sono Competitivi? (Spoiler: Dipende)
MAI-1-preview posizionato #15 su LM Arena. Non male per un primo tentativo, ma lontano dal podio. Sopra GPT-4.1 Flash, sotto Gemini 2.5 Flash. Traduzione: funziona bene per attività consumer standard (email, summarization, Q&A) ma non per coding complesso o reasoning profondo.
MAI-Voice-1 è probabilmente il gioiello della corona. Nelle comparazioni dirette, suona più naturale di OpenAI. Se il tuo caso d’uso è voce-centrico (assistenti vocali, podcast generation), MAI-Voice-1 è credibile alternativa.
MAI-Image-1 (#9 su LM Arena) è competitivo ma non dominante. Utile se sei già dentro Copilot e vuoi evitare dipendenza da DALL-E.
Quando Microsoft Ha Senso (e Quando È un Disastro)
Ha senso se:
- Sei già utente intensivo Microsoft 365 (l’integrazione è perfetta)
- Le tue attività sono prevalentemente consumer/enterprise standard
- Vuoi optionality – poter passare tra modelli senza riscrivere infra
- Privacy/data residency sono vincoli (MAI può girare su Azure in region specifiche)
È un disastro se:
- Hai bisogno di cutting-edge per competere (MAI è “sufficientemente buono”, non “migliore della categoria”)
- I tuoi workflow sono già ottimizzati per Claude/GPT API (costo di migrazione > benefit)
- Operi in settore regolamentato dove provenienza del modello conta (MAI è troppo giovane)
- Non sei già nell’ecosistema Microsoft (Copilot free è letteralmente GPT-4 Turbo con limiti casuali – meglio ChatGPT diretto)
La scommessa di Microsoft è che per l’80% dei casi d’uso, “sufficientemente buono + integrated + cheap” batte “migliore della categoria + autonomo + expensive”. Potrebbe avere ragione – o scoprire che il delta qualitativo tra #15 e #1 conta più dell’integrazione.
L’Alternativa Ignorata: Modelli Open Self-Hosted
Costo: Hardware + elettricità + manutenzione (nessun costo per token)
Modelli principali: DeepSeek-V3.1, Llama 4, Qwen 3, Mixtral, GPT-OSS, Gemma 3
Punto di Forza: GDPR compliance totale + TCO inferiore su volumi alti + sovranità digitale
Punto Debole: Richiede expertise tecnica + investimento infrastrutturale iniziale
C’è un elefante nella stanza che l’intero dibattito “Claude vs GPT vs Gemini” ignora sistematicamente: i modelli open-weight self-hosted. Non sono una nicchia per smanettoni – sono l’unica soluzione praticabile per aziende che operano sotto GDPR con dati sensibili, o per chi processa volumi talmente alti che il costo cloud diventa insostenibile.
La narrazione dominante è “cloud o niente”. La realtà è più sfumata: nel 2025, i modelli open-weight top sono competitivi con i proprietari su molti benchmark, con il vantaggio aggiuntivo di controllo totale su dati, customizzazione e costi prevedibili.
I Contendenti: Chi Compete Davvero
GPT-OSS-120b (discusso sopra): 117B parametri, MoE, MXFP4, Apache 2.0. Leader open-weight su coding e reasoning. Singola H100. Performance = o4-mini su molti benchmark.
DeepSeek-V3.1: 671B parametri totali (37B attivi per token), MoE, 128k context. Licenza MIT – completamente libero anche per uso commerciale. Su benchmark come MMLU, matematica e coding, è dentro l’errore statistico rispetto a GPT-4o e Claude Sonnet. DeepSeek ha fatto rumore all’inizio del 2025 quando R1 ha dimostrato capacità di reasoning a costi di training drasticamente inferiori.
Llama 4 (Meta): Tre varianti – Scout (109B totali, 17B attivi), Maverick (400B totali, 17B attivi), Behemoth (2T totali, 288B attivi). Nativa multimodale. Licenza Meta AI (non commerciale per aziende >700M utenti attivi mensili, permissiva per startup/ricerca).
Qwen 3 (Alibaba): 235B parametri (22B attivi). Il migliore per multilingue. Se operi in italiano, cinese, o qualsiasi lingua non-inglese, Qwen batte tutti – comprensione culturale profonda, non solo traduzione meccanica. Context nativo 262k, estendibile oltre 1M.
Mixtral 8x22B (Mistral AI): 141B parametri totali, attiva solo 39B per token. Efficienza incarnata. Eccelle in matematica, coding, multilingue (francese, tedesco, spagnolo, italiano nativi). Apache 2.0 – zero restrizioni.
Gemma 3 27B: Discusso sopra. Multimodale, 128k context, singola GPU. Google-licensed ma permissiva per uso commerciale sotto soglie ragionevoli.
Il TCO Reale: Facciamo i Conti
Scenario: azienda italiana mid-size (500 dipendenti) che vuole deployare assistente AI interno per analisi documentale, supporto coding, Q&A aziendale. Volume stimato: 50M token/giorno (15B token/mese).
Opzione A: Claude Sonnet 4.5 API
- Costo token: $3 input + $15 output, assume ratio 3:1 → ~$6/M token medio
- 15B token/mese × $6 = $90k/mese cloud
Opzione B: GPT-OSS-120b self-hosted
- Hardware: 1× H100 GPU (~$25k acquisto, ammortizzato 36 mesi = $695/mese)
- Datacenter: rack space, networking, cooling (~$3k/mese)
- Elettricità: 1 H100 @ 700W = 0.7kW × 24h × 30 giorni × €0.25/kWh = ~€125/mese
- Personale: 1.5 ML engineers full-time (~€11k/mese totale)
- Totale: ~$15k/mese
Break-even: $90k cloud vs $15k self-hosted = risparmi $75k/mese = $900k/anno.
Su 3 anni: risparmi $2.7M. Ecco perché aziende europee con volumi alti stanno massivamente migrando a self-hosting.
Opzione C: DeepSeek-V3.1 self-hosted (alternativa a GPT-OSS se serve più potenza)
- Hardware: 4× H100 GPU (~$100k acquisto, ammortizzato = $2.8k/mese)
- Datacenter: ~$5k/mese
- Elettricità: 4 H100 = 2.8kW × 24h × 30 × €0.25 = ~€500/mese
- Personale: 2 ML engineers (~€15k/mese)
- Totale: ~$23k/mese
Ancora conveniente vs cloud, ma richiede più investimento iniziale.
I Vincoli Pratici Che Nessuno Ti Dice
Memoria GPU è il collo di bottiglia reale: GPT-OSS-120b in MXFP4 richiede ~80GB per inferenza. H100 ha 80GB → batch size = 1 (lento). Per produzione decente (batch 8-16), servono tecniche di ottimizzazione o più GPU.
Expertise è scarsa: ML engineers che sanno deployare, ottimizzare e mantenere LLM production-grade sono merce rara. Stipendio: €80-120k/anno. Se non li hai in-house, consulenza esterna costa €1000-1500/giorno.
Licenze sono complicate: Llama 4 è “open” ma non per aziende >700M utenti. DeepSeek è MIT (totalmente libero). GPT-OSS è Apache 2.0 (libero). Mixtral è Apache 2.0. Gemma 3 ha restrizioni sotto determinate soglie. Leggere attentamente le licenze prima di committare.
Manutenzione non è opzionale: Modelli nuovi escono ogni 3-6 mesi. Devi aggiornare, ri-testare, ri-deployare. Cloud fa questo automaticamente. Self-hosting richiede processo CI/CD maturo.
L’Ibrido Pragmatico
La soluzione ottimale per molte aziende europee non è “tutto cloud” o “tutto on-premise” – è ibrido:
- Workload sensibili/alto-volume → self-hosted (GPT-OSS/DeepSeek per analisi documentale interna)
- Workload occasionali/basso-volume → cloud (GPT-5 per demo clienti, prototipazione rapida)
- Reasoning complesso occasionale → cloud (Claude Opus per analisi strategiche critiche)
Questo massimizza controllo + compliance mantenendo flessibilità. Aziende come Siemens, Deutsche Bank, Telefónica stanno andando in questa direzione.
La Famiglia o-Series: Il Paradigma Reasoning Che Nessuno Discute
C’è un’altra omissione critica nell’analisi tradizionale: i modelli o-series (o1, o3, o3-mini, o4-mini) di OpenAI non sono “GPT più lenti” – sono un paradigma architetturale completamente diverso ottimizzato per reasoning multi-step invece che per generazione veloce.
Cosa Rende o-Series Diverso
I modelli o-series usano chain-of-thought reasoning esplicito prima di rispondere. Invece di “pensare e parlare simultaneamente” come GPT-4/5, fanno un passo indietro, ragionano attraverso il problema in hidden tokens (che non vedi), poi producono la risposta finale.
Quando eccellono:
- Matematica competitiva: AIME 2024/2025, IMO problems
- Coding complesso: SWE-bench, Codeforces (con strumenti)
- Problemi logici multi-step: GPQA Diamond (PhD-level science)
- Planning e decomposizione: Tasks che richiedono breakdown strategico
Quando falliscono:
- Content generation veloce (troppo lenti, overthink)
- Q&A semplice (overhead inutile)
- Conversazioni iterative (perdono spontaneità)
o3 vs GPT-5: Non Sono Intercambiabili
o3 (e varianti o3-mini, o4-mini) sono stati in parte deprecati dopo il rilascio di GPT-5, che incorpora capacità di reasoning quando serve tramite modalità “thinking”. Ma questo non li rende identici:
o3 dedicated è ancora superiore su:
- Matematica pura (AIME con tools: o3 batte GPT-5)
- Problemi dove reasoning esplicito è verificabile
- Scenari dove vuoi vedere il processo di ragionamento
GPT-5 (con thinking mode) è migliore su:
- Task misti che richiedono sia reasoning che generazione
- Coding con estetica (frontend + logica)
- Scenari dove velocità conta
La strategia corretta non è “o3 o GPT-5″ ma “o3 per task specifici, GPT-5 come default“.
Perché L’Articolo Originale Li Ha Ignorati?
Probabilmente perché l’analisi era focalizzata su “modelli general-purpose per uso quotidiano”. I modelli o-series sono specialistici – li usi quando il problema richiede davvero reasoning profondo, non per scrivere email o generare contenuti.
Ma per enterprise che fanno R&D, analisi finanziaria complessa, progettazione ingegneristica, o supporto medico avanzato, ignorare o-series è un errore. Sono lenti (2-10x più lenti di GPT-5), costano di più per token (reasoning tokens sono hidden ma pagati), ma quando servono, niente altro funziona altrettanto bene.
La Matrice Decisionale: Cosa Scegliere Quando
Non esiste “il migliore” – esistono contesti dove un modello domina gli altri. Ecco una decision tree basata su casi d’uso reali, non su benchmark astratti.
Scenario 1: Sviluppo Software Complesso, Budget Non Vincolante
Scelta: Claude Sonnet 4.5
Perché: Processi lunghi, context management superiore, reliability su ristrutturazioni massive
Alternativa: GPT-5 se le attività sono più frammentate, o3 se serve reasoning profondo su singoli problemi
Scenario 2: Content Generation ad Alto Volume (Newsletter, Blog, Social)
Scelta: GPT-5
Perché: Costo 60% inferiore, qualità comparabile su writing, velocità superiore
Alternativa: Gemini se devi generare anche immagini/video preview
Scenario 3: Prototipazione Rapida Web/Mobile con Heavy UI
Scelta: Gemini 2.5 Pro
Perché: Eccellenza su design visuale, context window permette di caricare interi design systems
Alternativa: Claude se logica sottostante complexity > interfaccia complexity
Scenario 4: Assistente Personale, Email, Task Management
Scelta: Copilot for M365 (se già usi Office) o GPT-5 (altrimenti)
Perché: Integrazione nativa con calendar/email + MAI-1-preview sta migliorando per attività consumer
Alternativa: Claude se le attività diventano complesse (analisi multi-thread progetti)
Scenario 5: Analisi Documentale Massiva (Legal, Finance, Research)
Scelta: Gemini 2.5 Pro
Perché: 1M token context = puoi caricare tutti i contratti contemporaneamente
Alternativa: Claude per accuracy superiore su singoli documenti, Copilot se doc sono in SharePoint
Scenario 6: Azienda Europea con Dati Sensibili, Volumi Medi (10-50M token/giorno)
Scelta: GPT-OSS-120b self-hosted
Perché: GDPR compliance totale + TCO inferiore + performance competitive + licenza permissiva
Alternativa: Gemma 3 27B se budget hardware limitato, DeepSeek-V3 se serve più potenza
Investimento iniziale: $25-30k hardware + 1.5 ML engineers
Break-even vs cloud: ~10-15M token/giorno
Scenario 7: Startup che Prototipa AI App, Budget Ristretto
Scelta: GPT-OSS-20b o Gemma 3 4B su hardware consumer
Perché: Zero API costs, gira su MacBook Pro (16GB), performance sufficiente per MVP
Upgrade path: Se funziona, scale su 120b cloud-hosted, poi migrate a GPT-5 API quando serve cutting-edge
Scenario 8: Settore Regolamentato (Healthcare, Legal, Finance, PA)
Scelta: GPT-OSS-120b o DeepSeek-V3.1 self-hosted su datacenter europei
Perché: Unico modo per compliance totale GDPR/HIPAA/settoriali + fine-tuning su dati proprietari
Alternativa: Microsoft MAI su Azure Europe (se accetti cloud europeo ma non vuoi gestire infra)
Nota critica: Licenza Apache 2.0 GPT-OSS permette modifiche proprietarie, DeepSeek MIT idem
Scenario 9: Matematica/Coding Competitivo, Reasoning Profondo
Scelta: o3-mini o o4-mini
Perché: Architettura dedicata al reasoning multi-step, performance superiore su AIME/GPQA
Alternativa: GPT-5 con thinking mode per task misti, Claude se serve anche orchestrazione tools
Scenario 10: Multimodale Pesante (Video Analysis, Image Understanding)
Scelta: Gemini 2.5 Pro (cloud) o Gemma 3 27B (self-hosted)
Perché: Nativa multimodale, migliore comprensione video frame-by-frame
Alternativa: GPT-4o se serve velocità, Claude se l’output finale è prevalentemente testo
I Trade-off Nascosti Che Nessuno Ti Dice
Ogni modello ha vincoli impliciti che scopri solo dopo aver bruciato budget o tempo. Eccone alcuni critici:
Rate Limits Variabili
Claude Pro web: 1000 messaggi/mese con Sonnet 4. Sembra tanto finché non implementi un agent che fa 50 chiamate/ora per 8 ore – hai finito in 3 giorni. API: limit dinamici basati su tier, throttling durante peak hours.
GPT-5: Context window 400k ma embedding max 8k. Se vuoi fare RAG semantico su documentazione enterprise, devi chunking + reranking.
Gemini: 1M context ma RPM (requests per minute) aggressivi. Puoi processare 1M token per request, ma 100 request in parallelo = throttling.
GPT-OSS: Zero rate limits (self-hosted). Ma devi gestire concorrenza via infra.
Context ≠ Reasoning Quality
Gemini ha 1M context ma non significa che “ragiona” su tutti contemporaneamente. Degradazione accuracy oltre 500k token è misurabile. Claude 200k è più “denso” – mantiene coerenza meglio.
Multimodal ≠ Comprensione Integrata
Tutti dichiarano “multimodal” ma solo Gemini/Gemma 3 processano davvero video frame-by-frame. GPT-5 fa sampling di frame chiave. Claude supporta immagini ma è text-first. Se il tuo task è “analizza questo tutorial video di 45 minuti”, solo Gemini funziona bene.
Alignment vs Utility
Claude ha filtri di sicurezza più rigidi. Su attività medici/legali è più conservativo (bene per liability, male per productivity). GPT-5 è più “helpful” anche quando non dovrebbe. Gemini sta nel mezzo. GPT-OSS/DeepSeek possono essere abliterati (ma rischio reputazionale).
Open ≠ Truly Open
GPT-OSS: Apache 2.0 ma training data e routing mechanism non rilasciati.
Gemma 3: Permissiva ma non Apache (restrizioni sotto certe soglie).
Llama 4: “Open” ma non per aziende >700M utenti.
DeepSeek: MIT – la più libera.
Mixtral: Apache 2.0 piena.
Leggere le licenze prima di committare su produzione.
Guardare Avanti: Cosa Cambia nei Prossimi 6 Mesi
Il plateau tecnico non significa stagnazione – significa differenziazione. Nei prossimi mesi aspettatevi:
1. Prezzi in discesa per API cloud
GPT-5 ha forzato la mano. Claude dovrà scendere o differenziare ulteriormente. Gemini userà il costo come leva competitiva. Microsoft con MAI può permettersi di essere aggressivo perché controlla l’intero stack.
2. Guerra open-weight si intensifica
DeepSeek R2 in arrivo (Q1 2026). Llama 5 atteso (H1 2026). Qwen 4 in sviluppo. GPT-OSS avrà aggiornamenti. Il gap tra open e proprietario continuerà a ridursi. Per molti casi d’uso, open-weight diventerà superiore perché customizzabile.
3. Specializzazione verticale esplode
Non più “un modello per tutto” ma variant specifici. GPT-5-Legal, Claude-Finance, Gemini-Healthcare, MAI-Customer-Service. Con fine-tuning aziendale obbligatorio.
4. Multi-Model diventa default
Usare un singolo modello per task complessi diventerà antipattern. Orchestrazione di 3-4 agent specializzati (uno per reasoning, uno per coding, uno per UI) sarà lo standard. Microsoft Copilot è già lì – router tra GPT, MAI, modelli terzi.
5. Sovranità digitale europea accelera
Governi EU stanno già spingendo per datacenter AI europei con modelli open self-hosted. Aspettatevi incentivi fiscali per aziende che migrano da cloud USA a self-hosting EU. GDPR enforcement si intensificherà – multe per violazioni aumenteranno. Self-hosting diventerà obbligo de facto per PA e settori regolamentati.
6. Safety filtering diventa campo di battaglia
Versioni “abliterate” di GPT-OSS/Gemma continueranno a proliferare. Vendor proprietari stringeranno i filtri (pressioni legali/politiche). Enterprises dovranno scegliere: utility vs compliance. Non ci sarà compromesso facile.
7. Reasoning models maturano
o-series non è l’unico approccio. DeepSeek-R1 ha dimostrato che reasoning si può fare diversamente (GRPO invece di RL classico). Aspettatevi 3-4 architetture reasoning competitive entro metà 2026. Il trade-off latency/accuracy si ridurrà.
Conclusioni: Smetti di Cercare “Il Migliore”
La domanda sbagliata è “quale modello scelgo?”. La domanda giusta è: “Quali attività sto risolvendo, con quali vincoli, quale compromesso sono disposto ad accettare, e chi voglio che controlli i miei dati?”
Claude se hai budget e vuoi affidabilità su flussi di lavoro lunghi.
GPT-5 se vuoi versatilità economica per volumi alti.
o-series se serve reasoning profondo su problemi specifici.
Gemini se multimodale/visual è critico.
Microsoft se sei già dentro l’ecosistema Office e puoi accettare modelli in maturazione.
GPT-OSS se vuoi democratizzazione radicale con performance top.
Gemma 3 se serve multimodale accessibile su hardware limitato.
DeepSeek/Llama 4 self-hosted se GDPR è non-negoziabile o volumi rendono cloud insostenibile.
Ma soprattutto: nessuno di questi modelli risolve problemi che non hai già definito chiaramente. L’AI non ti fa diventare più bravo a pensare – ti fa eseguire il pensiero che già hai, più velocemente e a scala maggiore. Se non sai cosa vuoi, nessun modello ti salverà. Se lo sai, qualsiasi modello decente basta – la differenza la fa l’architettura dei tuoi flussi di lavoro, non il modello stesso.
Il vero vantaggio competitivo nel 2025 non è “uso Claude/GPT/Gemini/MAI/DeepSeek/GPT-OSS” – è “ho capito esattamente dove l’AI aggiunge valore nel mio flusso di lavoro, quale modello serve per quale task, quando il cloud ha senso e quando self-hosting è obbligatorio”. Tutto il resto è rumore.
L’unica costante? Tra 6 mesi questa gerarchia sarà già obsoleta. Microsoft continuerà a rilasciare MAI più potenti, OpenAI lancerà GPT-5.5 e GPT-OSS-v2, Anthropic risponderà con Claude 5, Google evolverà Gemini/Gemma, e DeepSeek/Meta rilasceranno versioni ancora più competitive degli open-weight.
Il gioco non è trovare “il migliore” oggi – è costruire sistemi che si adattano quando i modelli cambiano. Chi vince non è chi sceglie il modello giusto oggi, ma chi ha l’infrastruttura (tecnica e organizzativa) per cambiare modello domani senza riscrivere tutto.
La vera domanda strategica per il 2026: vuoi dipendere da vendor cloud che decidono prezzo e disponibilità, vuoi l’integrazione totale Microsoft che ti lega all’ecosistema, o vuoi controllo totale con modelli open che competono già oggi con i proprietari? La risposta dipende dai tuoi vincoli – ma ignorare l’opzione open-weight significa ignorare l’unica alternativa che ti dà vera indipendenza.
E se sei un’azienda europea che processa dati sensibili? La domanda non è nemmeno più “se” fare self-hosting, ma “quando” – perché tra GDPR enforcement crescente, sovranità digitale come priorità politica, e TCO cloud che continua a salire, il self-hosting con modelli open-weight diventerà inevitabile. GPT-OSS ha reso questa transizione drammaticamente più accessibile. Sarebbe un errore non considerarlo.
Riferimenti
- Anthropic – “Claude Sonnet 4.5 Release” (2025)
https://www.anthropic.com/news/claude-sonnet-4-5 - OpenAI – “GPT-5 Technical Documentation” (2025)
https://openai.com/research/gpt-5 - OpenAI – “Introducing gpt-oss” (agosto 2025)
https://openai.com/index/introducing-gpt-oss/ - Hugging Face – “Welcome GPT OSS” (agosto 2025)
https://huggingface.co/blog/welcome-openai-gpt-oss - Microsoft Azure Blog – “OpenAI’s open-source model: gpt-oss on Azure” (agosto 2025)
https://azure.microsoft.com/en-us/blog/openais-open-source-model-gpt-oss-on-azure-ai-foundry-and-windows-ai-foundry/ - Google DeepMind – “Gemini 2.5 Pro: Technical Report” (2025)
https://deepmind.google/technologies/gemini/ - Google – “Introducing Gemma 3” (marzo 2025)
https://blog.google/technology/developers/gemma-3/ - Hugging Face – “Welcome Gemma 3” (marzo 2025)
https://huggingface.co/blog/gemma3 - Microsoft AI – “Two in-house models in support of our mission” (agosto 2025)
https://microsoft.ai/news/two-new-in-house-models/ - TechCrunch – “OpenAI launches two ‘open’ AI reasoning models” (agosto 2025)
https://techcrunch.com/2025/08/05/openai-launches-two-open-ai-reasoning-models/ - Fortune – “OpenAI enters open-source AI race” (agosto 2025)
https://fortune.com/2025/08/05/openai-launches-open-source-llm-ai-model-gpt-oss-120b-deepseek/ - IEEE Spectrum – “Open AI Models: OpenAI’s New Release” (agosto 2025)
https://spectrum.ieee.org/open-ai-models - Analytics Vidhya – “Gemma 3 vs DeepSeek-R1 Comparison” (marzo 2025)
https://www.analyticsvidhya.com/blog/2025/03/gemma-3-vs-deepseek-r1/ - Baseten – “The best open source large language model” (gennaio 2025)
https://www.baseten.co/blog/the-best-open-source-large-language-model/ - CNBC – “Microsoft tests MAI-1-preview AI model” (agosto 2025)
https://www.cnbc.com/2025/08/28/microsoft-tests-mai-1-preview-ai-model-boost-to-copilot-rival-openai.html - LLM-Stats – “Claude Sonnet 4.5 vs GPT-5: Complete Comparison” (2025)
https://llm-stats.com/blog/research/sonnet-4-5-vs-gpt-5 - Novita AI – “DeepSeek R1 vs Gemma 3” (luglio 2025)
https://blogs.novita.ai/deepseek-r1-vs-gemma-3/ - Composio – “Gemini 2.5 Pro vs Claude 4 Sonnet: Coding Comparison” (2025)
https://composio.dev/blog/gemini-2-5-pro-vs-claude-4-sonnet-coding-comparison - OpenAI – “Azure OpenAI reasoning models documentation” (2025)
https://learn.microsoft.com/en-us/azure/ai-foundry/openai/how-to/reasoning - Glean – “OpenAI GPT-5 outperforms o3” (agosto 2025)
https://www.glean.com/blog/open-ai-gpt-5

Leave a comment