user1972 beh, secondo la ben nota legge di Moore:
La complessità di un microcircuito, misurata ad esempio tramite il numero di transistor per chip, raddoppia ogni 18 mesi (e quadruplica quindi ogni 3 anni)
Una stima abbastanza accurata per il numero di transistor deriva da questa funzione: f(X)=7,5 * 2X/18,
X= numero di mesi dal lancio del Pentium II (maggio 1997).
La frequenza del processore segue una legge simile, approssimabile con: f(X)=300 * 2X/18,
con X definito nello stesso modo di prima.
Fatta questa premessa, applicazione ancora valida ai giorni nostri e secondo uno studio di Intel applicabile anche oltre il 2025 (fonte), è chiara però una cosa: qualunque sia il limite fisico, questo di fatto esiste, per due motivi:
- la miniaturizzazione (componenti sempre più numerosi a parità di spazio, quindi sempre più piccoli) prima o poi incontrano la scala quantistica e qui entra il concetto di "multicore" come unica soluzione
- la formula ha andamento esponenziale, che va bene entro un certo intervallo temporale; poi la funzione esponenziale diventa troppo "esplosiva" per poter avere un riscontro pratico, con l'esempio fatto, nel 2040 probabilmente saremo già oltre questa rappresentazione
Anche per quanto riguarda il numero di core (secondo il punto 1, la soluzione "multicore" sarebbe quidi l'alternativa al limite fisico della miniaturizzazione), non credo comunque sia questa una soluzione realistica, oltre un certo livello. È più probabile che si diffonderà su larga scala il quantum computing, grazie al fatto che i qubit per come sono strutturati seguono una legge del tipo XX come combinazioni possibili, rispetto a 2X dei bit classici (approfondimento); anche dal punto di vista energetico, oltre un certo valore è certamente più efficiente una soluzione di questo tipo, piuttosto che avere frequenze del processore assurde (già facciamo fatica a soddisfare le attuali esigenze energetiche, figurati..).