user7312
I passaggi potenzialmente sono i seguenti:
-Ottenere il modello 3D:
- Imparando a modellare con blender (o altri) (Cosa che richiede mesi/anni a seconda del grado di bontà del modello)
- Ottenendo il modello 3D desiderato fatto da qualcun altro. (ad es. comprandolo) solitamente in formato FBX
-Animare il modello 3D:
- Utilizzando Mixamo
- Imparando a fare il rigging ed animazione tramite un programma 3D (richiede molto tempo, non consigliabile per questo caso)
Si può animare ovviamente anche in Blender, c'è da dire che siccome tu parli di animazione in cui balla... oggi giorno in realtà pressoché nessuno più fa una simile animazione (e sovente nemmeno le altre) attraverso gli strumenti di animazione dei programmi 3D utilizzando tecniche "manuali" come Inverse Kinematics.. né altre che si usavano in passato e si usano ancora ma solo per animare oggetti.. o creature non umanoidi. Questo perché farlo così è molto lungo e complesso anche per chi fa l'animatore come mestiere.. si tende ad evitare di fare qualcosa del genere perché oggi tutti utilizzano animazioni estrapolate da dispositivi di motion capture che estrapolano l'animazione più realistica possibile con quella "tutina" con i sensori che fanno indossare agli attori per "catturarne" il movimento che probabilmente hai visto in qualche backstage di qualche film) un esempio👇️

Ovviamente chi ce l'ha l'attrezzatura per fare il motion capture? Pochi. Ma esistono servizi come quello di mixamo che mettono a disposizione sia tutta una serie di animazioni (tutte che provengono sempre da motion capture ma sono pronte all'uso)
e in più Mixamo ha anche un suo algoritmo che è in grado anche di creare automaticamente lo scheletro adattato al tuo modello (purché umanoide) e fare il processo chiamato "rigging" cioè la creazione e messa in funzione dello scheletro per l'animazione cosa che è un altro processo che si può fare benissimo in Blender "manualmente" e anche con risultati migliori, ma anche qui, per scheletri umanoidi nessuno si mette più a farlo visto che ci sono sistemi automatizzati. Insomma Mixamo ha solo bisogno del modello e, per te, crea lo scheletro umanoide e gli applica un animazione a scelta (facendoti vedere il risultato del tuo modello animato).
A quel punto puoi scaricare il tuo modello con tale animazione.

Fatto ciò , ad esempio puoi reimportare il tuo modello animato dentro Blender. Ma non solo: Puoi importarlo anche in qualsiasi altro programma di modellazione 3D oppure anche programmi di videomaking. (anche qui servirà chiaramente del tempo per imparare... ma... se tu ad esempio vuoi importare un personaggio che balla con uno sfondo dietro... ) importi il modello 3D e il filmato avrà la lunghezza pari alla durata dell'animazione che avevi esportato da Mixamo (contenuta nel modello)... nel programma di editing video fondamentalmente non devi imparare null'altro che a importare tale modello e animazione ,a cambiare lo sfondo, e renderizzare il filmato. Bon. Per fare una cosa così semplice non devi necessariamente conoscere a fondo tutti gli infinite potenzialità del programma.
Una volta fatto ciò e quindi ottenuto come risultato un filmato del tuo personaggi che balla, fondamentalmente Deep Fake consiste in servizi che utilizzano algoritmi, intelligenze artificiali, che non fanno realmente altro che identificare determinati punti nel tuo filmato, corrispondenti alla fisionomia della figura... ad esempio:
Identificano (oppure ti chiedono di "segnare") i punti corrispondenti agli occhi, le mani, i piedi.. cose così. Un po' come è accaduto con Mixamo durante il processo di "autorig" (cioè di creazione automatica dello scheletro umanoide). Questo perché l'algoritmo deve fondamentalmente identificare dove stanno gli occhi , le spalle etc.. per "seguire" il movimento e quello che fa non è altro che sostituire il personaggio presente nel filmato che hai caricato con la celebrità.
In realtà qui ci sono due possibilità: In teoria uno potrebbe ricreare (come fanno nei film) in 3D un modello tale e quale al vip e poi semplicemente animarlo. Ovviamente ricreare un modello perfettamente identico e fotorealistico.. richiede un esperienza immensa. Il Deep Fake tramite IA è una cosa moooolto più semplice (almeno per l'utilizzatore). Non agisce sul 3D. Agisce sul filmato, riconosce (tramite quei punti, variazioni dicolore etc) il movimento in atto e lo sostituisce con fondamentalmente fotografie animate in modo complesso del vip facendogli eseguire lo stesso identico movimento. (vale anche per le espressioni del viso ovviamente). Tutto ciò... lo fa l'IA attraverso i suoi complessissimi calcoli ed operazioni.. ma l'utente in realtà non deve fare.. pressoché nulla qui. Quindi non richiede nessuna particolare bravura o cosa. Si tratta solo di trovare il servizio IA che ti fa questa cosa. Fondamentalmente farai l'upload del filmato e i dopo tutta la sua elaborazione, esso ti restituirà un altro filmato con la celebrità al posto del tuo personaggio.
Per fare il DeepFake , non occorre quindi necessariamente tutta la parte inerente la modellazione e animazione 3D. In linea teorica si potrebbe caricare semplicemente un filmato in cui si filma la propria persona e si eseguono i gesti che si vuole che l'IA faccia compiere alla celebrità. Per facilitare l'IA nel seguire i tuoi movimenti è possibile indossare determinati vestiti, magari tirare su uno sfondo ad esempio un telo colorato idealmente di un verde acceso (o di qualsiasi altro colore che non è presente su di te e sui tuoi vestiti). Idealmente vestiti attillati e con singolo colore, senza disegni linee etc. E ovviamente il filmato deve essere il più possibile di alta qualità, inquadrato perfettamente, in modo che possa vedere e simulare anche la tua espressione. Ad ogni modo, sul Deep Fake, ripeto: si tratta di trovare innanzitutto il servizio che mette a disposizione del pubblico questo algoritmo e dopodiché si troverà tutto spiegato lì.