Novità nell’AI generativa:
Eccoti un’analisi delle più recenti novità nel panorama dell’intelligenza artificiale generativa testuale, con particolare attenzione agli sviluppi dell’ultima settimana. Ho verificato attentamente l’esistenza dei modelli e l’accuratezza delle informazioni.
Microsoft e l’innovazione dei modelli a 1 bit
Microsoft ha lanciato la scorsa settimana BitNet b1.58 2B4T, un modello innovativo a 1 bit che promette di rivoluzionare l’accessibilità dell’AI. Contemporaneamente, OpenAI ha rilasciato GPT-4.1 eliminando GPT-4.5, mentre nuovi modelli specializzati nel ragionamento stanno definendo un nuovo campo di battaglia nel settore. Ecco un’analisi completa delle più recenti novità.
Microsoft e l’innovazione dei modelli a 1 bit
Microsoft ha recentemente presentato BitNet b1.58 2B4T, il primo modello linguistico nativo a 1 bit su larga scala con 2 miliardi di parametri. Rilasciato il 16 aprile 2025, questo modello è disponibile con licenza MIT e può funzionare efficientemente su CPU, inclusi i processori Apple M2.
I “bitnet” sono essenzialmente modelli compressi progettati per funzionare su hardware leggero. A differenza dei modelli standard, dove i pesi vengono quantizzati per funzionare su un’ampia gamma di macchine, i bitnet quantizzano i pesi in soli tre valori: -1, 0 e 1. In teoria, questo li rende molto più efficienti in termini di memoria e calcolo rispetto alla maggior parte dei modelli attuali.
I ricercatori Microsoft affermano che BitNet b1.58 2B4T è il primo bitnet con 2 miliardi di parametri. Addestrato su un dataset di 4 trilioni di token — equivalenti a circa 33 milioni di libri secondo una stima — BitNet b1.58 2B4T supera i modelli tradizionali di dimensioni simili.
L’aspetto più innovativo è la sua efficienza:
Su CPU x86, le accelerazioni variano da 2,37x a 6,17x con riduzioni di energia tra il 71,9% e l’82,2%. Inoltre, bitnet.cpp può eseguire un modello BitNet b1.58 da 100 miliardi di parametri su una singola CPU, raggiungendo velocità paragonabili alla lettura umana (5-7 token al secondo), migliorando significativamente il potenziale per eseguire LLM su dispositivi comuni.
Secondo i test condotti dai ricercatori, il modello supera Meta’s Llama 3.2 1B, Google’s Gemma 3 1B e Alibaba’s Qwen 2.5 1.5B su benchmark come GSM8K e PIQA.
Supporto in LM Studio e limitazioni
Quando si tenta di caricare bitnet-b1.58-2B-4T-gguf in LM Studio, gli utenti incontrano l’errore: “error loading model: llama_model_loader: failed to load model from .lmstudio\models\microsoft\bitnet-b1.58-2B-4T-gguf\ggml-model-i2_s.gguf”.
Questo accade perché l’architettura BitNet di Microsoft utilizza l’attivazione ReLU quadratica e la quantizzazione ternaria (1,58 bit), che diverge dai modelli standard basati su Llama. L’attuale parser llama.cpp in LM Studio non supporta queste personalizzazioni.
È stata aperta una richiesta il 18 aprile 2025 (issue #598) per aggiungere il supporto a questo innovativo modello in LM Studio, ma al momento è necessario utilizzare il framework proprietario di Microsoft, bitnet.cpp, per ottenere le massime prestazioni.
OpenAI: l’era di GPT-4.1 e la fine di GPT-4.5
Il 14 aprile 2025, OpenAI ha lanciato una nuova famiglia di modelli chiamata GPT-4.1. Sì, “4.1” — come se la nomenclatura dell’azienda non fosse già abbastanza confusa.
Ci sono GPT-4.1, GPT-4.1 mini e GPT-4.1 nano, tutti ottimizzati per la programmazione e il rispetto delle istruzioni. Disponibili attraverso l’API di OpenAI ma non su ChatGPT, questi modelli multimodali hanno una finestra di contesto di 1 milione di token, il che significa che possono elaborare circa 750.000 parole in un’unica volta (più lungo di “Guerra e Pace”).
OpenAI afferma che il modello GPT-4.1 completo supera i suoi modelli GPT-4o e GPT-4o mini nei benchmark di programmazione, incluso SWE-bench. GPT-4.1 mini e nano sono descritti come più efficienti e veloci a scapito di una certa precisione, con OpenAI che definisce GPT-4.1 nano il suo modello più veloce (e più economico) di sempre.
OpenAI ha annunciato l’intenzione di eliminare gradualmente GPT-4.5 Preview dall’API, poiché GPT-4.1 offre prestazioni migliori o simili su molte capacità chiave a costi e latenze molto inferiori. GPT-4.5 Preview sarà disattivato tra tre mesi, il 14 luglio 2025, per consentire agli sviluppatori di effettuare la transizione.
Un aspetto controverso è che OpenAI non ha ancora rilasciato un rapporto sulla sicurezza per GPT-4.1, suggerendo che i rilasci dei modelli dell’azienda stiano correndo avanti rispetto ai test di sicurezza.
La rivoluzione del ragionamento: o3, o4-mini, Claude 3.7 e altri
Il mondo dell’AI ha subito silenziosamente un cambiamento fondamentale. Non si tratta più di quale modello possa generare il testo più convincente o le immagini più belle. Il nuovo campo di battaglia è il ragionamento — la capacità di pensare attraverso problemi complessi passo dopo passo prima di rispondere. Questo non è solo un altro miglioramento incrementale; è un cambiamento di paradigma che ci avvicina significativamente all’intelligenza artificiale generale.
Cinque grandi attori sono entrati in questa arena del ragionamento all’inizio del 2025, ciascuno con il proprio approccio: o3 e o4-mini di OpenAI, Claude 3.7 Sonnet di Anthropic, Gemini 2.5 Pro di Google e Grok 3 di xAI.
OpenAI ha creato modelli di ragionamento dedicati, con o3 che rappresenta la loro offerta di punta e o4-mini che fornisce un punto di ingresso più accessibile. Li hanno lanciati entrambi simultaneamente il 16 aprile 2025, dopo il precedente rilascio di o3-mini a gennaio. L’approccio di OpenAI tratta il ragionamento come una capacità specializzata che merita un’architettura di modello dedicata.
Anthropic ha intrapreso un percorso fondamentalmente diverso con Claude 3.7 Sonnet, rilasciato a febbraio 2025. Piuttosto che creare modelli di ragionamento separati, hanno costruito un sistema ibrido che integra sia risposte rapide che pensiero esteso. La loro filosofia è che il ragionamento dovrebbe essere una capacità naturale di un’intelligenza unificata, non una funzione separata.
Gemini 2.5 Pro di Google adotta un approccio di forza bruta, generando estese catene di pensiero prima di rispondere. Nel frattempo, Grok 3 di xAI offre modalità dedicate “Think” e “Big Brain” specificamente per complessi compiti di ragionamento.
DeepSeek e gli sviluppi cinesi
DeepSeek ha rilasciato un importante aggiornamento del suo modello linguistico V3, intensificando la competizione con i leader tecnologici statunitensi come OpenAI e Anthropic. Il 25 marzo 2025, l’azienda ha lanciato DeepSeek-V3-0324 sulla piattaforma di sviluppo AI Hugging Face, che l’azienda ha presentato come un aggiornamento con miglioramenti nelle capacità di ragionamento e programmazione rispetto al precedente modello V3.
Riguardo a Baidu e al suo modello Ernie 5.0, Baidu ha in programma di rilasciare la prossima versione del suo modello AI, Ernie 5.0, nella seconda metà del 2025, come riportato da CNBC giovedì. Questo sviluppo arriva in mezzo alle perturbazioni causate da nuovi entranti come DeepSeek nel settore dell’AI.
Il prossimo modello, definito “modello fondamentale”, dovrebbe mostrare significativi miglioramenti nelle capacità multimodali, permettendo l’elaborazione e la trasformazione di vari tipi di dati, inclusi testo, video, immagini e audio. Questo posizionerà Baidu per competere più efficacemente nel mercato cinese e potenzialmente anche a livello globale.
Conclusioni
Il panorama dell’AI generativa sta vivendo un momento di rapida evoluzione con due tendenze chiave che stanno emergendo:
- Democratizzazione dell’accesso: I modelli come BitNet di Microsoft dimostrano che è possibile creare sistemi AI efficienti che funzionano su hardware comune, aprendo la strada a una maggiore accessibilità.
- Specializzazione nel ragionamento: La corsa al ragionamento rappresenta un salto qualitativo che potrebbe portare a sistemi AI in grado di affrontare problemi complessi in modi sempre più simili al pensiero umano.
- Competizione globale: L’emergere di aziende cinesi come DeepSeek sta intensificando la competizione globale, con approcci innovativi che sfidano l’egemonia delle aziende americane.
Questi sviluppi suggeriscono che i prossimi mesi potrebbero vedere ulteriori innovazioni significative, con particolare attenzione all’efficienza computazionale e alle capacità di ragionamento avanzato.
Riferimenti:
- https://techcrunch.com/2025/04/16/microsoft-researchers-say-theyve-developed-a-hyper-efficient-ai-model-that-can-run-on-cpus/
- https://github.com/microsoft/BitNet
- https://github.com/lmstudio-ai/lmstudio-bug-tracker/issues/598
- https://techcrunch.com/2025/04/14/openais-new-gpt-4-1-models-focus-on-coding/
- https://openai.com/index/gpt-4-1/
- https://medium.com/@cognidownunder/how-o3-o4-mini-claude-3-7-gemini-2-5-and-grok-3-stack-up-627cc0a31192
- https://www.forbes.com/sites/tylerroush/2025/03/25/deepseek-launches-ai-model-upgrade-amid-openai-rivalry-heres-what-to-know/
- https://www.benzinga.com/markets/25/02/43685601/after-deepseek-shook-wall-street-chinas-baidu-gears-up-for-ai-battle-with-next-gen-ernie-5-0-launch-in-late-2025

Leave a comment