Effetti visivi, il manuale di compositing più smart usa Python

Gianluca Dentici
Gianluca Dentici, compositor e VFX supervisor.

Gianluca Dentici è un compositor di successo e un VFX supervisor. Romano, ma da diversi anni residente a Londra, ha lavorato ad importanti progetti italiani ed internazionali, che gli sono valsi diverse candidature ai David di Donatello e diversi premi tra cui un Oscar, vinto nel 2017 con il team della società londinese MPC per Il libro della giungla di Jon Favreau. Oltre ai numerosi impegni sul set ha da poco pubblicato il libro Python Scripting for smart and curious compositors, il primo testo ad affrontare dalla A alla Z, in maniera puntuale, la programmazione Python applicata al software di compositing Nuke. Un mondo complesso e affascinante che abbiamo approfondito con l’aiuto di Gianluca.

Come si realizza un film con effetti visivi?

Il workflow tipico degli effetti visivi si divide in due macro aree: il reparto 3D e il compositing. Il primo è strutturato, al suo interno, in altri dipartimenti che si occupano delle diverse fasi di creazione, quali la ricostruzione delle estensioni scenografiche, le animazioni e le creature. La prima fase è quella della modellazione, dove viene costruito il modello tridimensionale. Nel caso di creature animate, il reparto di rigging si occupa di inserire al loro interno uno scheletro in modo che possano essere successivamente animate dal reparto di animazione. Nella fase di texturing, invece, viene realizzata la texture dei personaggi o degli oggetti virtuali, dal colore alla materia, ad esempio una pelle squamata o un muro di mattoni. ll reparto groom si occupa invece di creare digitalmente il “fur”:  i capelli o il pelo di una creatura, quando necessario. Tra i dipartimenti più vicini al compositing c’è quello del lighting, che si occupa di illuminare le scene in computer grafica, sia per le inquadrature completamente digitali che per quelle ibride, composte cioè sia da una ripresa reale che da elementi digitali. In questo caso la luce virtuale che illumina gli oggetti in computer grafica deve essere il più simile possibile a quella del set affinché possa essere integrata nella maniera più realistica possibile. L’ultimo passaggio, infine, è il rendering. Questa fase richiede molto tempo poiché le immagini vengono calcolate fotogramma per fotogramma (24 per ogni secondo di durata per il cinema) al fine di generare gli elementi virtuali che occorreranno per comporre la scena.

The Truman Show
Jim Carrey in “The Truman Show”.

Il compositing invece di cosa si occupa?

Il compositing è un dipartimento singolo, finalizza l’effetto visivo e lo fa sembrare realistico. Uniamo gli elementi digitali a quelli reali e li amalgamiamo perfettamente. I rendering della computer grafica ci vengono passati sotto forma di passes o layers, che sono praticamente la scomposizione delle caratteristiche dell’oggetto colpito dalla luce, cioè luce diffusa, specularità, riflessi, riflessioni, luci di riempimento e numerose altre,  vale per ogni oggetto o personaggio. Questo offre ai compositors la possibilità di avere il massimo controllo sui livelli e colori nella fase di compositing.  Oltre a oggetti o creature animate possiamo trovarci, però, a inserire anche altri elementi digitali. Tra questi, le set extensions, ovvero le estensioni scenografiche virtuali. In The Truman Show, tanto per citare un film del passato in cui è stata ampiamente usata questa tecnica, la produzione ha ricostruito realmente l’ambientazione al piano terra dove interagivano gli attori, ma le estensioni dei palazzi in altezza sono state realizzate in computer grafica. Possono inoltre essere impiegati elementi fotografici per la ricostruzione di panorami virtuali. In questo caso è il dipartimento di matte painting che se ne occupa lavorando contributi fotografici e pittorici in alta risoluzione su Photoshop. Un ultimo reparto con cui si interfaccia il compositor è quello di FX, che si occupa di creare tutti quegli effetti che richiedono simulazioni dinamiche. Alcuni esempi: l’acqua digitale, come nel film Pirati dei caraibi, dove in molte scene il mare è ricreato in computer grafica, le animazioni di sabbia fatte in Dune e Star Wars, o ancora gli incendi, che dopo essere stati parzialmente realizzati sul set per ragioni di sicurezza, possono essere incrementati in post produzione per ottenere un effetto più drammatico. Tutti questi elementi vengono passati al dipartimento di compositing per realizzare l’inquadratura finale.

È più complesso lavorare su un film completamente in computer grafica o su un film normale con effetti visivi?

Io lavoro principalmente su film con effetti visivi, ma ho esperienza anche in progetti completamente digitali, come Il re leone. È un altro tipo di lavoro ma i passaggi restano gli stessi. In realtà è più difficile quando tutto è virtuale poiché l’aspetto fotografico presenta difficoltà maggiori. Infatti la luce vera sul set ti offre un buon riferimento visivo, quando invece è tutto digitale la devi ricreare affinché risulti realistica; ciò vale anche per la macchina da presa virtuale che inquadra la nostra scena in computer grafica e che deve avere la naturalezza che avrebbe una reale macchina da presa sul set.

Il tuo libro è il primo compendio di programmazione per il compositor…

Il libro ha avuto una grossa eco a livello internazionale perché non esisteva una pubblicazione simile. È un compendio di 1250 pagine che parte dalle basi della programmazione fino a giungere a un livello avanzato. Anche se nel mestiere di compositor non è necessariamente richiesta la conoscenza della programmazione, sicuramente impararla aiuta a migliorare le performances e velocizzare alcuni processi delle fasi del compositing. Per questo motivo il libro è adatto a chi vuole incrementare le proprie conoscenze tecniche/artistiche nel settore.

Qual è l’obiettivo del libro?

L’obiettivo finale è fornire al lettore gli strumenti per poter creare, ad esempio, delle automazioni per comporre insieme diversi elementi digitali customizzando e velocizzando alcuni processi che altrimenti si dovrebbero fare manualmente. Il libro parte da zero e si rivolge quindi anche a chi non possiede alcun tipo di conoscenza di programmazione: come anticipato si basa sul compositing e ciò che si richiede al lettore è almeno la conoscenza di base di un tipico workflow di post-produzione. Il linguaggio di programmazione utilizzato è Python che è semplice da imparare ma molto potente e ampiamente utilizzato in vari settori. Su internet sono disponibili numerosi siti o libri da cui è possibile iniziare a studiare questo linguaggio  in maniera generica, ma spesso si finisce per acquisire una conoscenza non specifica o non completa relativamente al campo di applicazione cui siamo interessati. Perciò ho pensato di scrivere questo libro spiegando il Python applicato direttamente al compositing per il cinema, in particolare al software Nuke. Il libro, inoltre, è volutamente in formato digitale perché, in questo modo è più semplice per il lettore provare i vari codici di programmazione facendo copia/incolla.

The House Netflix
“The House” (2022) su Netflix.

Potresti farmi qualche esempio di applicazione pratica?

Una delle applicazioni più interessanti è quella di creare interfacce con librerie di effetti selezionabili. Ad esempio, se dovessimo simulare degli effetti di riverbero della luce di una candela su una scena è spesso necessario provare diversi set up di curve di animazione randomiche per trovare quello più appropriato,  questa operazione viene spesso effettuata manualmente e richiede tempo. Utilizzando un po’ di programmazione invece è possibile creare un’interfaccia dalla quale l’artista può selezionare il tipo di curva più appropriata.  Un altro esempio riguarda The House, il film in stop motion di Netflix a cui ho partecipato presso Nexus Studios: avevamo la necessità di applicare degli specifici settaggi di rimozione del rumore digitale e modificare l’esposizione su tutti i fotogrammi delle singole inquadrature. Se lo avessimo dovuto fare manualmente avremmo dovuto aprire le inquadrature una per una ed effettuare le modifiche, il che avrebbe richiesto un intervento umano per tutta la durata della fase di acquisizione dei materiali del film. Ho invece creato un’interfaccia in grado di gestire l’automazione che, oltre a effettuare le procedure di cui sopra, al termine del processo spostava anche i fotogrammi in specifiche cartelle, inviava una mail di report e segnalava eventuali errori. In un film in stop motion possono inoltre verificarsi anche alcune particolari problematiche tecniche. Le macchine fotografiche rimangono accese per molte ore al giorno, talvolta con esposizioni lunghe e con settaggi ad alta sensibilità, tutte queste condizioni insieme possono favorire la comparsa di “hot pixels”, che si presentano come puntini rossi sull’immagine che vanno quindi corretti o e sostituiti con il colore dei pixel circostanti. Controllare ogni fotogramma di ogni inquadratura ed eventualmente effettuare queste correzioni a mano richiederebbe un tempo incredibile e specifiche risorse dedicate, ma con un po’ di programmazione è possibile creare uno strumento specifico in grado di effettuare il processo automaticamente.