Come Ho Domato Claude

Published on

in

(Senza Vendere un Rene)

Ovvero: La storia di come un proxy TypeScript, alcuni modelli gratuiti e una configurazione JSON hanno rivoluzionato il mio workflow di sviluppo


Il Problema: Quando i Token Finiscono e la Realtà Inizia

Claude Code è fantastico. È come avere un senior developer che non si lamenta mai, non prende pause caffè e non fa commenti passivo-aggressivi durante i code review. Claude Pro a €21/mese è un affare quando hai token disponibili – il problema è cosa fare quando finiscono.

Ho provato Gemini CLI pensando di essere furbo. Risultato? €28 di bolletta in due giorni di uso per prestazioni che definire “scarse” è un complimento. Molto peggio dell’abbonamento Claude, con una frazione della qualità.

La realtà è che Claude rimane sempre Claude – risolve brillantemente i problemi complessi, a parte qualche loop occasionale che disturba. Ma quando i token dell’abbonamento Pro si esauriscono, o quando serve un uso davvero intensivo, le alternative diventano cruciali.

Benvenuti nell’era del claude-code-router: il Robin Hood dei modelli AI.


La Scoperta: Un Proxy che Cambia Tutto

Navigando nei meandri di GitHub (come ogni developer che si rispetti quando dovrebbe lavorare), mi sono imbattuto in musistudio/claude-code-router. Un progetto che prometteva di trasformare Claude Code in un router multi-modello capace di usare qualsiasi provider LLM.

Il concetto è brillante nella sua semplicità:

  • Claude Code invia richieste al router
  • Il router le redistribuisce ai provider più convenienti
  • Profit (letteralmente)

È come avere un agente che negozia automaticamente i prezzi migliori mentre tu programmi.


Il Setup: Architettura Multi-Tier

La strategia che ho sviluppato si basa su un principio fondamentale: non tutti i task sono uguali. Perché usare un modello da $10/milione di token per correggere un typo quando uno gratuito fa lo stesso lavoro?

La Configurazione Magica

{
  "Providers": [
    {
      "name": "deepseek",
      "api_base_url": "https://api.deepseek.com/chat/completions",
      "api_key": "your-deepseek-key",
      "models": ["deepseek-chat", "deepseek-reasoner"],
      "transformer": {
        "use": ["deepseek"],
        "deepseek-chat": {
          "use": ["tooluse"]
        }
      }
    },
    {
      "name": "openrouter",
      "api_base_url": "https://openrouter.ai/api/v1/chat/completions",
      "api_key": "your-openrouter-key",
      "models": [
        "google/gemini-2.0-flash-exp:free",
        "meta-llama/llama-3.3-70b-instruct:free",
        "openai/gpt-4.1-mini",
        "google/gemini-2.5-flash",
        "anthropic/claude-sonnet-4"
      ],
      "transformer": {
        "use": ["openrouter"]
      }
    }
  ],
  "Router": {
    "default": "openrouter,google/gemini-2.0-flash-exp:free",
    "background": "deepseek,deepseek-chat",
    "think": "openrouter,openai/gpt-4.1-mini",
    "longContext": "openrouter,google/gemini-2.5-flash"
  }
}

La Strategia dei Tre Livelli

🆓 Livello Gratuito (80% del lavoro)

  • google/gemini-2.0-flash-exp:free – Per tutto il lavoro di routine
  • meta-llama/llama-3.3-70b-instruct:free – Backup gratuito da 70B parametri (!!)

💰 Livello Economico (15% del lavoro)

  • deepseek,deepseek-chat – $0.14/M input, tool compatibility perfetta
  • Background tasks ultra-economici

🎯 Livello Premium (5% del lavoro)

  • openai/gpt-4.1-mini – Per analisi complesse
  • google/gemini-2.5-flash – Context lunghi
  • anthropic/claude-sonnet-4 – Quando serve la qualità assoluta

È come avere una Ferrari in garage ma usare la bici per andare al panettiere.


La Strategia Hybrid: Il Meglio di Due Mondi

Dopo mesi di test, la configurazione vincente non è “CCR vs Claude” ma “CCR + Claude“:

🥇 Primary: Claude Pro (€21/mese)

  • Primo choice per tutto il lavoro complesso
  • Qualità imbattibile per reasoning e architetture
  • Tool calling perfetto e zero setup

🥈 Backup: CCR quando Claude pro finisce

  • Gemini 2.0 Flash gratuito per lavoro routine
  • GPT-4.1 Mini per analisi che richiedono qualità
  • DeepSeek per background tasks economici

🚀 Intensivo: CCR per progetti grandi

  • Quando serve processare 28 repository
  • Per sessioni di sviluppo di 8+ ore
  • Quando i token Claude Pro non bastano

Il risultato? Costi controllati, qualità massima, zero downtime.

È come avere una Ferrari per le gare e una Tesla per il quotidiano.

Test 1: Il LSL Simulator

Ho testato il setup su un progetto reale: un simulatore di Linden Scripting Language (LSL) per Second Life/OpenSimulator. Parliamo di migliaia di linee di codice, parsing ANTLR4, e architetture complesse.

Gemini 2.0 Flash (gratuito) ha gestito l’analisi iniziale:

Il progetto LSL Simulator implementa in Python un ambiente completo 
per analizzare, interpretare e simulare script LSL usati in 
OpenSimulator e Second Life...

Carino, ma basic.

GPT-4.1 ha prodotto un’analisi enterprise-level:

npc.lsl implements an event-driven AI NPC for OpenSimulator/Second Life. 
It reads a notecard for personality, registers with a backend AI server 
via HTTP, listens on chat channels, senses avatars nearby, manages 
conversation and NPC state, and uses asynchronous event handling...

Ora stiamo parlando.

Gemini 2.5 Pro ha fatto vedere i thinking tokens:

✻ Thinking…
Reviewing the Analysis
I'm revisiting the npc.lsl script analysis, prompted by a model switch...

E poi ha prodotto un’analisi che sembrava scritta da un architect senior con 20 anni di esperienza in virtual worlds.

Test 2: Il Progetto Java

Per testare le capacità di sviluppo, ho chiesto al sistema di creare un programma Java che:

  1. Legge API key da file .env
  2. Chiama l’API OpenAI
  3. Stampa la risposta

Risultato: Non solo ha scritto il codice, ma ha anche:

  • ✅ Installato automaticamente il JDK o meglio istruito su come fare sudo apt install
  • ✅ Gestito il debugging (ha corretto il mismatch APIKEY vs OPENAI_API_KEY)
  • ✅ Compilato ed eseguito il programma
  • ✅ Mostrato la risposta JSON dell’API

È come avere un DevOps engineer che lavora gratis.


I Numeri: Analisi Costi-Benefici

ScenarioClaude ProGemini CLISetup CCRRisultato
Uso normale€21/mese€28/mese€5-15/meseCCR vince
Qualità analisi⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐Claude leggermente meglio
Quando token finiti❌ Stop❌ Bolletta esplode✅ ContinuaCCR unica opzione
Uso intensivo❌ Token limit❌ Costi folli✅ ScalabileCCR dominante

La strategia vincente? Claude Pro fino ai token limit, poi CCR.

Breakdown Qualitativo

Gemini 2.0 Flash (FREE):

  • ✅ Perfetto per routine, debug, refactoring
  • ✅ Veloce e reattivo
  • ❌ Limitato su analisi complesse

GPT-4.1 Mini:

  • ✅ Eccellente rapporto qualità/prezzo
  • ✅ Context lungo (128K)
  • ✅ Tool calling perfetto
  • ❌ Non free (ma costa poco)

Gemini 2.5 Pro:

  • ✅ Thinking tokens visibili
  • ✅ Analisi architetturale top-tier
  • ✅ Contest window massimo
  • ❌ Costoso ($1.25/M input)

Le Sorprese: Quello che Non ti Aspetti

1. I Modelli Gratuiti Sono Davvero Buoni

Llama 3.3 70B gratuito su OpenRouter? Chef’s kiss. Prestazioni che rivalizzano con modelli commerciali da centinaia di dollari.

2. Il Switching è Trasparente

/model openrouter,google/gemini-2.5-pro
analizza questo codice in dettaglio

Boom. Sei passato dal modello gratuito a quello top-tier in una riga.

3. I Thinking Tokens Cambiano Tutto

Vedere come Gemini 2.5 Pro ragiona prima di rispondere è illuminante:

✻ Thinking…
I'm currently outlining the conversion requirements...
My strategy involves directly handling the .env file parsing...

È come guardare dentro la mente di un AI.

4. L’Automazione è Magica

Il router ha:

  • Installato automaticamente il JDK quando mancava
  • Corretto un bug nel codice Java
  • Gestito compilation errors
  • Eseguito programmi

Tutto senza che io muovessi un dito.


I Trucchi del Mestiere

1. Model ID Precisi

OpenRouter è pignolo sui nomi. google/gemini-2.0-flash-experimentalgoogle/gemini-2.0-flash-exp:free.

Pro tip: Sempre fare il check dei modelli disponibili:

curl -H "Authorization: Bearer your-key" \
https://openrouter.ai/api/v1/models | jq '.data[].id'

2. Transformer Compatibility

Google API ha limitazioni su JSON Schema. Per questo DeepSeek + OpenRouter funzionano meglio per tool calling complessi.

3. Context Management

Configurare longContext per modelli con context window maggiore evita gli overflow:

"longContext": "openrouter,google/gemini-2.5-flash"

4. Caching Intelligente

I modelli gratuiti hanno rate limits. Il setup ibrido permette di usare alternative quando necessario in fallback.


Lezioni Apprese

1. Non Tutti i Token Sono Uguali

Un’analisi architetturale da Gemini 2.5 Pro vale ogni centesimo. Una correzione typo no.

2. La Diversità è Forza

Avere accesso a 5+ modelli diversi significa sempre avere lo strumento giusto per il job giusto.

3. L’Economia dell’AI è Folle

Modelli che costano $10/M oggi sono gratuiti domani. Il router ti permette di sfruttare queste opportunità.

4. La Developer Experience Conta

Claude Code con il router mantiene la stessa UX ma con costi controllati. Best of both worlds.


Il Verdetto

Dopo settimane di test intensivi, posso dire che claude-code-router ha rivoluzionato il mio workflow:

✅ Costi ridotti del 90%

  • Da $500/mese a $50/mese per usage normale

✅ Qualità mantenuta

  • Accesso a modelli top-tier quando serve

✅ Flessibilità massima

  • Switch tra modelli in tempo reale

✅ Automazione completa

  • Tool calling, compilation, execution

✅ Future-proof

  • Facile aggiungere nuovi provider/modelli

Conclusioni: Non è Guerra, è Strategia

Claude rimane sempre Claude – e questo è un bene. Quando funziona (e ha token), è imbattibile per risolvere problemi complessi. I loop occasionali sono un prezzo accettabile per quella qualità.

Ma la realtà pratica è diversa dalla teoria:

  • I token Pro finiscono sempre nei momenti sbagliati
  • I progetti grandi richiedono più risorse di quelle disponibili
  • Gemini CLI da solo è una trappola costosa (€28 vs €21 di Claude Pro!)

Il claude-code-router non sostituisce Claude – lo integra. È il tuo backup plan quando i token finiscono, la tua assicurazione per i progetti intensivi, il tuo paracadute per non rimanere bloccato.

L’era del “one model to rule them all” è finita. Il futuro appartiene a chi sa orchestrare intelligentemente diversi strumenti per diversi momenti.

La strategia vincente? Claude Pro come primary, CCR come safety net.

Smart money doesn’t put all eggs in one AI basket. 🎯

Happy coding, e che la forza del multi-modello sia con voi. 🚀


P.S.: Se questo articolo ti ha fatto risparmiare dei soldi, offrimi un caffè. O meglio, investi quello che avresti speso in Claude in azioni DeepSeek. 😉


Questo articolo è stato scritto con l’aiuto del setup descritto. Meta, lo so.

Leave a comment


Benvenuto su Salahzar.com

Qui trovi analisi critiche sull’intelligenza artificiale e le sue implicazioni sociali, scritte da chi viene da una impostazione umanistica e ha passato vent’anni a costruire mondi virtuali prima che diventassero “metaverso”.

Niente hype da Silicon Valley o entusiasmi acritici: sul tavolo ci sono le contraddizioni dell’innovazione tecnologica, i suoi miti fondativi, le narrazioni che usiamo per darle senso. Dai diari ucronici (storie alternative come strumento per capire i nostri bias cognitivi) alle newsletter settimanali sugli sviluppi dell’AI che richiedono aggiornamenti continui perché i trimestri sono già preistoria.

Se cerchi guide su come “fare soldi con ChatGPT” o liste di prompt miracolosi, sei nel posto sbagliato. Se invece ti interessa capire cosa sta succedendo davvero – tra hype, opportunità concrete e derive distopiche – sei nel posto giusto.

Umanesimo digitale senza retorica, analisi senza paternalismi, ironia senza cinismo.


Join the Club

Stay updated with our latest tips and other news by joining our newsletter.