Blender può essere considerato un formidabile strumento didattico perché, per creare ogni effetto, richiede una sequenza ben calibrata di passaggi e il suo uso, specialmente se prolungato, migliora sensibilmente la memoria procedurale.
Dalla modellazione alla texturizzazione, dall’illuminazione al rendering, ogni passaggio deve essere ricordato ed eseguito con attenzione a causa dei numerosi parametri che, di volta in volta, occorre configurare per ottenere il risultato desiderato.
Dalla modellazione alla texturizzazione, dall’illuminazione al rendering, ogni passaggio deve essere ricordato ed eseguito con attenzione a causa dei numerosi parametri che, di volta in volta, occorre configurare per ottenere il risultato desiderato.
Per questo motivo, Blender è diventato la mia palestra per il cervello, che continuo a frequentare pur sapendo che, con l’arrivo di Sora anche in Italia, il mio approccio alla realizzazione di piccole animazioni dovrà necessariamente cambiare.
Nel frattempo, rifletto su come verrà influenzato il mio processo creativo.
Nel frattempo, rifletto su come verrà influenzato il mio processo creativo.
Blender garantisce un controllo manuale e fine della scena 3D, mentre Sora traduce automaticamente le descrizioni testuali in video.
Nella foto un collage di fotogrammi estratti da un video di 20 secondi generato da un’IA con il mio prompt benevolo “Un cane che sembra un pupazzo di neve che corre nella neve”.
Ancora una volta dovrò confrontarmi con la raffinatissima arte del prompting, come ho già fatto in oltre ottanta “prove su strada” delle varie intelligenze generative riportate in mio Sway.
Ciò che conta è interpretare l’imminente disponibilità dei nuovi modelli “testo a video” — un vero e proprio salto quantico evolutivo — come un’opportunità e non come una minaccia.
Un salto che richiederà l’integrazione degli strumenti tradizionali con le nuove tecnologie e non la loro “destituzione”, come paventato in diverse news hi-tech.
Per fare qualche esempio concreto, ecco alcune fasi del ciclo di lavoro in ambito video per comprendere l’utilizzo di Sora o di IA simili:
Ciò che conta è interpretare l’imminente disponibilità dei nuovi modelli “testo a video” — un vero e proprio salto quantico evolutivo — come un’opportunità e non come una minaccia.
Un salto che richiederà l’integrazione degli strumenti tradizionali con le nuove tecnologie e non la loro “destituzione”, come paventato in diverse news hi-tech.
Per fare qualche esempio concreto, ecco alcune fasi del ciclo di lavoro in ambito video per comprendere l’utilizzo di Sora o di IA simili:
Fase di pre-produzione:
- sviluppo del concept creativo
- generazione rapida di storyboard (con l’IA)
- valutazione e raffinamento in sessioni di brainstorming con il team
- visualizzazione immediata di location e set design (con l’IA)
- riprese dal vivo solo per le scene chiave
- generazione di sfondi complessi e scene di raccordo (anche con l’IA)
- effetti speciali preliminari in tempo reale (anche con l’IA)
- creazione di scene crowd automatizzate (con l’IA)
- montaggio tradizionale per struttura e ritmo
- estensione e miglioramento delle scene esistenti (anche con l’IA)
- generazione di transizioni personalizzate
- rapida iterazione di versioni alternative (con l’IA)
- controllo creativo umano
- automazione dei processi tecnici
- potenziamento della visione artistica
- ottimizzazione del tempo per la sperimentazione