Salahzar's Weblog

A collection of my posts in the web

200 dollari e un giorno

il cinema si comprime

Tra un mese comincio a insegnare video con AI. Tre lezioni, il mercoledì sera su Zoom, dentro un ciclo di sedici incontri che quest’anno copre mesh, Blender, OpenSim, Roblox e NPC intelligenti. Preparo il programma e mi chiedo: che strumenti metto in scaletta? Il problema non è che mancano — è che cambiano più in fretta di quanto riesca a scrivere le slide.

L’ultima volta che ho controllato, a maggio scorso, Hashem Al-Ghaili aveva appena pubblicato The Colorless Man, un corto di fantascienza fatto con sei o sette strumenti diversi: ChatGPT per la sceneggiatura, MidJourney e Dreamina per le immagini, Kling AI per i video, ElevenLabs per le voci, Suno per la musica. Seicento dollari, due settimane di lavoro a tempo perso. Su IMDB ha un 7.6, che per un corto AI-assisted non è poco. Al-Ghaili stimava che con metodi tradizionali quel progetto avrebbe richiesto 70 persone e due mesi [1].

Sono passati nove mesi. A febbraio 2026 lo stesso Al-Ghaili pubblica Time Traveler, un corto su un viaggio nel tempo per impedire a una scuola d’arte di Vienna di bocciare Hitler (il soggetto è discutibile, i numeri no): un giorno di lavoro, meno di 200 dollari, un singolo strumento — Seedance 2.0 di ByteDance. Un modello che genera video e audio insieme, con tagli interni, lip-sync, effetti sonori. Niente più catena di sei applicazioni. Un prompt, un’immagine di riferimento, e il modello fa quasi tutto da solo [2].

Questa compressione ha una velocità che non ho mai visto in vent’anni di tecnologie educative. Ho organizzato corsi su mondi virtuali, su modellazione 3D, su chatbot — ogni ciclo tecnologico aveva i suoi tempi di maturazione, e quei tempi erano abbastanza lenti da permetterti di preparare materiale che restasse valido almeno un semestre. Qui no. Qui il materiale invecchia mentre lo scrivi.

Per capire la scala: marzo 2023, qualcuno genera con ModelScope un video di Will Smith che mangia spaghetti. Il risultato è un incubo — faccia che si scioglie, mani che si fondono con la forchetta, spaghetti che levitano come in un film di Cronenberg senza budget. Il video diventa virale per quanto è orribile, e poi diventa una cosa seria: un test informale per misurare i progressi dei modelli di generazione video. Se il tuo modello riesce a far mangiare spaghetti a Will Smith in modo credibile, hai risolto in un colpo solo espressioni facciali, fisica degli oggetti, consistenza del personaggio [3]. A febbraio 2024, lo stesso Will Smith fa la parodia su Instagram — “This is getting out of hand!” [4]. A febbraio 2026, Seedance 2.0 genera scene di combattimento con coreografia, dialogo e audio nativo. Meno di tre anni, dalla parodia involontaria al cortometraggio.

E qui entra il mio problema pratico. Quando preparo le tre lezioni di “Video con AI” per fine aprile, devo decidere: insegno gli strumenti di oggi (che a fine aprile saranno già quelli di ieri), o insegno un metodo che sopravviva al prossimo aggiornamento? La risposta sembra ovvia — il metodo, sempre il metodo. Ma il metodo senza pratica è aria. Un corsista vuole aprire un’applicazione, premere un bottone, vedere un risultato. E se il bottone cambia posizione ogni tre mesi, hai un problema che nessuna teoria risolve.

Al-Ghaili è un caso interessante perché mostra entrambe le facce. Da un lato, è uno che sa fare cinema: Simulation nel 2019 era fatto con VFX tradizionali, ha vinto premi a festival internazionali [5]. Non è un ragazzino con un account TikTok — è un biologo molecolare con un master a Brema che ha imparato regia, montaggio e post-produzione da autodidatta. I suoi video funzionano perché prima di toccare qualsiasi strumento AI sapeva già cos’è un campo/controcampo, come si costruisce un ritmo narrativo, dove mettere un taglio. Seedance 2.0 gli comprime i tempi, non gli regala il mestiere. Questo è il punto che rischia di perdersi nell’entusiasmo dei 200 dollari: lo strumento si è democratizzato, la grammatica cinematografica no. Se metti un modello generativo in mano a chi non ha mai ragionato su un’inquadratura, ottieni “slop” — quel contenuto viscido e generico che riempie i feed senza lasciare traccia. Al-Ghaili produce corti guardabili perché sa dirigere il modello, non solo usarlo.

Dall’altro lato, ogni suo concept virale — EctoLife, Sky Cruise, Cognify — è stato scambiato per reale da una fetta consistente di pubblico. Reuters e AP hanno dovuto fare fact-check su video che erano dichiaratamente fittizi [6]. Se succede con i concept, figuriamoci con i corti generativi che sembrano film veri.

Disney, Paramount e Netflix intanto hanno mandato diffide a ByteDance: Seedance 2.0 è stato addestrato su materiali protetti senza compenso [7]. Il modello che “democratizza” il cinema è nutrito con il cinema di chi protesta. Il costo di produzione non è sparito — è stato spostato altrove, nel corpus di addestramento.

E qui si apre la questione che nel corso diventa esercizio pratico. I due modelli video più forti in questo momento sono Seedance 2.0 e Veo 3.1 di Google — e sono complementari nel modo più istruttivo possibile. Seedance ti lascia fare quasi tutto: combattimenti, scene d’azione, poche restrizioni, risultati spettacolari, provenienza dei dati opaca e mezza Hollywood che minaccia cause. Veo 3.1 ha risoluzione 4K nativa a 60fps, watermark SynthID integrato, filtri di sicurezza configurabili, API documentata con prezzi trasparenti — ma fraintende i prompt più spesso di quanto vorresti, e a volte ti blocca contenuti che non violano niente [8]. Fai lo stesso esercizio con entrambi: stesso soggetto, stesso prompt. Confronti i risultati, e il confronto non è solo estetico — è una lezione su cosa succede quando scegli un modello per un cliente rispetto a quando giochi per conto tuo. Per chi gioca, la differenza non conta. Per chi un giorno consegna un video a qualcuno che paga, è la differenza tra un lavoro e un problema.

Boh. Non ho una soluzione elegante per il corso. Quello che farò è partire da un esercizio concreto — un corto di 30 secondi, tema libero — e usarlo come scusa per attraversare tre o quattro strumenti diversi, sapendo che magari a giugno ne esisteranno altri. Ma il punto vero non è lo strumento: è costringere i corsisti a pensare prima di generare. Cos’è un piano sequenza, perché un campo/controcampo funziona, dove metti il taglio. L’AI diventa un modo per studiare composizione: se Seedance genera tagli interni a caso, devi sapere riconoscere quali funzionano e perché, e rigenerare quelli che non reggono. Il flusso — soggetto, immagine di riferimento, generazione, montaggio, audio — resiste anche quando cambiano i nomi dei software. Più o meno.

Il manifesto del corso dice: “Non serve sapere già tutto — serve avere voglia di provare. Si fa, si sbaglia, si capisce.” L’ho scritto io, un paio di settimane fa, e adesso mi sembra una promessa difficile. Perché “si sbaglia” implica che esiste un percorso di apprendimento ragionevolmente stabile, e quando il terreno si muove così in fretta, sbagliare diventa meno istruttivo e più frustrante.

Ma poi penso a marzo 2023, Will Smith con gli spaghetti che gli escono dalle orecchie, e a febbraio 2026, Al-Ghaili che fa un corto di fantascienza in un pomeriggio. E mi dico: se c’è un momento in cui ha senso insegnare questa roba, è adesso. Non perché sia matura — perché è abbastanza acerba da poterla ancora capire pezzo per pezzo, prima che diventi una scatola nera come tutto il resto.


Riferimenti:

[1] Al-Ghaili H., The Colorless Man — post su X/Twitter, 29 maggio 2025. Budget $600, 2 settimane, stack di 6-7 tool AI. Intervista completa: https://getsuperintel.com/p/interview-with-hashem-al-ghaili-96cc3bcab199c3c1

[2] Al-Ghaili H., Time Traveler (Made with Seedance 2.0) — post su X/Twitter, 22 febbraio 2026. Budget <$200, 1 giorno, singolo strumento.

[3] “Will Smith Eating Spaghetti test”, Wikipedia: https://en.wikipedia.org/wiki/Will_Smith_Eating_Spaghetti_test — video originale marzo 2023 via ModelScope, diventato benchmark informale.

[4] Will Smith, video parodia su Instagram, 19 febbraio 2024. “This is getting out of hand!”

[5] Al-Ghaili H., filmografia IMDB: https://www.imdb.com/name/nm10532676/Simulation (2019), Last Stand (2023), Hiroshima (2024), The Colorless Man (2025, 7.6/10).

[6] Associated Press, fact-check su EctoLife (2022): Al-Ghaili conferma “this is a concept and not a real-life company”. Reuters, stessa verifica.

[7] “Seedance 2.0”, Wikipedia: https://en.wikipedia.org/wiki/Seedance_2.0 — diffide da Disney (13 febbraio 2026), Paramount, Netflix per addestramento su materiali protetti.

[8] Google Veo 3.1 — aggiornamento gennaio 2026: 4K nativo, audio sincronizzato, SynthID watermark. Accessibile via Gemini app, Flow, API. Dettagli: https://blog.google/innovation-and-ai/technology/ai/veo-3-1-ingredients-to-video/ — Veo su Wikipedia: https://en.wikipedia.org/wiki/Veo_(text-to-video_model)

Leave a comment