Quando l’Intelligenza Artificiale Scopre la Gelosia
Come un settore nato per “democratizzare l’intelligenza” sta imparando l’arte antica della cattiveria
C’è qualcosa di deliziosamente ironico nel vedere aziende che proclamano di voler “democratizzare l’intelligenza artificiale per il bene dell’umanità” comportarsi come adolescenti gelosi che nascondono i compiti al compagno di banco. La recente guerra fredda tra Anthropic e OpenAI — con il primo che ha tagliato l’accesso a Claude proprio mentre il secondo preparava GPT-5 — è solo l’ultimo capitolo di una trasformazione che dovremmo chiamare con il suo vero nome: l’adolescenza dell’AI.
Dall’Era Eroica all’Era dei Sospetti
Ricordate quando l’intelligenza artificiale era una cosa seria? Quando i ricercatori condividevano articoli, dataset e scoperte rivoluzionarie con la solennità di monaci medievali che tramandavano manoscritti? Era l’era della scienza aperta, quando ImageNet era gratuito, quando TensorFlow nasceva a codice libero, e quando l’idea stessa di accaparrare l’intelligenza sembrava un ossimoro.
Poi è arrivato ChatGPT e ha cambiato tutto. Non solo perché ha reso l’AI accessibile ai mortali, ma perché ha dimostrato che l’intelligenza artificiale poteva essere un affare straordinario. E come ogni affare straordinario, ha attirato gli istinti più umani: avidità, paranoia, e quella particolare forma di competitività che porta a dire “il mio modello è più intelligente del tuo”.
Il Paradosso della Democratizzazione
L’industria AI soffre di una contraddizione fondamentale che sarebbe comica se non fosse così riveladora della natura umana. Da un lato, ogni CEO ripete come un mantra che l’obiettivo è “democratizzare l’AI” — rendere l’intelligenza artificiale accessibile a tutti, abbattere barriere, creare un futuro migliore. Dall’altro, le stesse aziende stanno costruendo muri sempre più alti attorno ai loro giardini digitali.
OpenAI, che ha “Open” nel nome, ha smesso di essere open circa tre generazioni di modelli fa. Anthropic predica la “AI safety” ma usa la sicurezza come arma competitiva, negando l’accesso ai rivali sotto il pretesto di “uso responsabile”. Google parla di “AI for everyone” mentre accumula più talenti AI di una piccola nazione europea.
Non è ipocrisia. È adolescenza: quella fase della vita in cui si proclamano grandi ideali mentre ci si comporta esattamente come gli adulti che si criticavano.
Intelligenza Come Servizio (e Come Servizio Segreto)
La cosa più affascinante di questa trasformazione è come il concetto stesso di “intelligenza” sia diventato un bene di consumo. Pensateci: stiamo assistendo alla nascita del primo mercato della storia umana dove si può comprare, vendere, e razionare l’intelligenza stessa.
Claude non è solo un chatbot; è intelligenza impacchettata, tariffata, e venduta a consumo. GPT-5 non è una tecnologia; è un potenziamento cognitivo che si può acquistare con carta di credito. E come ogni bene scarso e prezioso, ha generato comportamenti che l’economia conosce bene: accaparramento, cartelli, e quella che gli economisti chiamano “ricerca di posizioni di privilegio”.
Il risultato? Un’industria che produce intelligenza artificiale ma dimostra ben poca intelligenza naturale nel gestire la collaborazione.
La Lezione del Windsurf: Quando David Incontra Golia (con gli Avvocati)
Il caso Windsurf è esemplare. Una startup brillante che aveva costruito uno degli ambienti di sviluppo AI più innovativi si trova schiacciata tra giganti che usano l’accesso ai modelli come un’arma strategica. OpenAI voleva acquisirla per 3 miliardi, ma Anthropic le ha tagliato Claude. Microsoft ha bloccato l’acquisizione per conflitti di proprietà intellettuale. Google ha fatto una selezione mirata del team dirigente per 2,4 miliardi. Alla fine, Cognition ha raccolto i pezzi che rimanevano.
Il messaggio è chiaro: nell’ecosistema AI, non esistono neutrali. O sei con noi, o sei un potenziale nemico da neutralizzare. È geopolitica applicata al software, e funziona secondo le stesse logiche brutali.
L’Ironia dell’Intelligenza Collettiva
C’è un paradosso delizioso in tutto questo. L’intelligenza artificiale funziona meglio quando può attingere a diverse fonti di conoscenza, quando può “vedere” diversi approcci allo stesso problema, quando può beneficiare della diversity cognitiva. È letteralmente progettata per la collaborazione.
Ma le aziende che la producono stanno creando l’esatto opposto: silos cognitivi dove ogni AI major conosce solo se stessa. È come costringere Einstein a lavorare senza mai leggere Newton, o chiedere a Picasso di dipingere senza mai aver visto un museo.
Gli sviluppatori lo capiscono intuitivamente. Per questo amano la “programmazione istintiva” — quel mix anarchico di modelli diversi usati per compiti diversi. Un po’ di Claude per il ragionamento, un po’ di GPT per la creatività, un po’ di Gemini per la velocità. È intelligenza artificiale davvero democratizzata, dal basso.
Ma gli amministratori delegati preferiscono i monopoli cognitivi. È più prevedibile, più controllabile, più redditizio.
Quello Che Non Vi Stanno Dicendo
Dietro ogni decisione strategica nel mondo AI c’è una domanda nascosta: chi controllerà l’intelligenza del futuro? Non si tratta solo di mercato o profitti. Si tratta di potere nel senso più puro del termine.
Chi controlla come le AI “pensano” controlla come le future generazioni risolveranno problemi, prenderanno decisioni, vedranno il mondo. È influenza culturale allo stato puro, e le implicazioni vanno ben oltre la tecnologia.
Quando Anthropic blocca OpenAI, non sta solo proteggendo Claude. Sta combattendo per determinare quale filosofia dell’AI — quale visione del mondo incorporata nei modelli — dominerà il futuro. È una guerra di valori mascherata da strategia commerciale.
Il Futuro: Crescere o Implodere?
L’industria AI si trova a un bivio. Può maturare verso un ecosistema collaborativo dove l’intelligenza artificiale diventa davvero una risorsa condivisa, oppure può cristallizzarsi in una confederazione di feudi digitali dove ogni signore locale controlla il proprio dominio cognitivo.
La storia della tecnologia suggerisce che la frammentazione è temporanea. Internet sembrava destinato a frammentarsi in reti proprietarie, poi è arrivato il protocollo TCP/IP. I sistemi operativi erano un caos di incompatibilità, poi sono emersi standard comuni. Il software era dominato da giganti chiusi, poi è esploso il codice libero.
Ma l’AI è diversa. È la prima tecnologia che non solo elabora informazioni, ma genera conoscenza. E la conoscenza, a differenza del software, ha proprietà emergenti che nessuno può prevedere o controllare completamente.
La Morale della Storia (Se Ce N’è Una)
Forse la lezione più importante di questa adolescenza dell’AI è che l’intelligenza artificiale, alla fine, riflette l’intelligenza umana che la crea. E l’intelligenza umana, come sappiamo, non è sempre particolarmente intelligente quando si tratta di cooperazione a lungo termine.
Ma c’è una speranza: gli adolescenti, prima o poi, crescono. Scoprono che la collaborazione batte la competizione, che condividere conoscenza la moltiplica invece di diminuirla, che l’intelligenza collettiva è sempre superiore a quella individuale.
La domanda è: l’AI crescerà prima che sia troppo tardi? O continueremo a vedere aziende che predicano la democratizzazione dell’intelligenza mentre costruiscono monopoli cognitivi?
La risposta la conosceremo presto. Nel frattempo, preparatevi a un’adolescenza lunga e drammatica. Con l’intelligenza artificiale che impara dai suoi creatori, non potevamo aspettarci diversamente.
Alla fine, la cosa più umana dell’intelligenza artificiale potrebbe essere proprio la sua capacità di comportarsi in modo irrazionalmente competitivo. È rassicurante sapere che, anche quando creeremo macchine più intelligenti di noi, riusciranno comunque a fare gli stessi errori.

Leave a comment