Suedo ne avevo parlato qui:
Il Multiverso (o diciamo, "i Multiversi") è una teoria, di fatto un'ipotesi.
Quindi se accettiamo la validità di questa teoria, ogni evento produce una biforcazione. Per evento si può intendere il tempo di Plank, secondo la scala di Plank abbiamo modo di credere che l'infinitamente piccolo NON esista, la realtà è discreta e non continua: anche a livello macroscopico infatti osserviamo questa "approssimazione", noi percepiamo un continuum quando in realtà scendendo a scala atomica le cose non sono così, c'è moltissimo "spazio vuoto" fra le particelle! Anche a livello subatomico ha quindi senso considerare l'effettiva validità della scala di Plank.
Questo comporta che, per piccolo (infinitesimo ma finito!) che sia, ad ogni intervallo dato (al massimo) dal tempo di Plank, si generi una biforcazione: tramite un collegamento ad un'altra dimensione (come ciò avvenga, è ancora da indagare) potrebbe quindi generarsi una "storia parallela", banalmente la storia con uguale passato e futuro1 dopo il verificarsi dell'evento1, futuro2 nell'universo parallelo (ripeto, come sia collegato dimensionalmente, non lo abbiamo ancora ben definito neanche a livello teorico) al verificarsi dell'evento2. Vale a dire che, anziché accettare un'unica possibilità di scelta per ogni evento ad ogni dimensione temporale minima (scala di Plank), abbiamo continue biforcazioni per la realizzazione delle varie realtà parallele.
Ripeto che comunque si tratta di teorie! È ben difficile dirne di più, ad esempio in meccanica quantistica la funzione d'onda (equazione di Schrödinger) essendo un'equazione differenziale lineare, ammette soluzione uguale alla combinazione lineare delle soluzioni, vale a dire 0+1, vivo+morto (vedi infatti paradosso del gatto di Schrödinger) , sovrapposizione degli stati (principio di sovrapposizione). Giusto per fare un accenno, dal punto di vista fisico e filosofico è stata posta un'obiezione interessante: se la proabilità NON esistesse, ma fosse solamente funzionale sui grandi numeri (si adatta all'andamento della statistica, che invece esiste, data dall'alternarsi di effetti di secondo ordine che, sui grandi numeri, creano diversità e quindi una distribuzione di un certo tipo), per farla breve potremmo passare da un modello di fatto probabilistico (equazione di Schrödinger, modulo quadro della funzione d'onda integrato in un volume, indica la probabilità che la particella sia entro quel volume) ad un modello 100% deterministico! Significa che il modello della funzione d'onda è "funzionale" ai nostri scopi ma il movimento delle particelle potrebbe comunque essere deterministico nel caso riuscissimo ad osservarlo a piccola scala (es. scala di Plank). Ad una scala molto più grande (la scala atomica, per piccola che sia, è miliardi di volte più grande) abbiamo un risultato mediato da effetti di secondo ordine che entrando in gioco, sui grandi numeri (es. moltissimi movimenti della particella) pur essendo su base deterministica, possono essere rappresentati in modo probabilistico! Per spiegare il concetto, un'analogia: lancio una moneta, non penseremo certo che il risultato sia dato dal "caso", dipende ovviamente dalla forza e inclinazione della mia mano e poi da effetti di secondo ordine (resistenza dell'aria ecc) solitamente trascurabili ma sui grandi numeri, quando le altre forze sono sufficientemente in equilibrio, fanno sbilanciare il risultato da una parte o dall'altra e quindi sui grandi numeri creano la distribuzione statistica che noi studiamo tramite l'invenzione del concetto di probabilità! Questo concetto è funzionale ai nostris copi poiché "funziona", ma non è detto che sia reale e l'esempio fatto rende l'idea. Quanto detto vale per il mondo macroscopico ma anche nel mondo microscopico possiamo applicare lo stesso concetto, molti studiosi infatti vedono questo aspetto come una criticità di base della meccanica quantistica (quindi diciamo pure una "crisi apparente del determinismo").