Oltre a Moore, chi altro ha formulato le leggi per la scalabilità dei sistemi informatici?

Stiamo parlando di due norme che cominciano anch'esse a perdere rilevanza.

Oltre a Moore, chi altro ha formulato le leggi per la scalabilità dei sistemi informatici?
/ foto Laura Ockel Unsplash

La Legge di Moore è stata formulata più di cinquanta anni fa. Durante tutto questo tempo, rimase per la maggior parte giusto. Ancora oggi, quando si passa da un processo tecnologico all'altro, la densità dei transistor su un chip aumenta raddoppia circa le sue dimensioni. Ma c'è un problema: la velocità di sviluppo di nuovi processi tecnologici sta rallentando.

Ad esempio, Intel ha ritardato a lungo la produzione di massa dei suoi processori Ice Lake da 10 nm. Mentre il gigante dell'IT inizierà a spedire i dispositivi il mese prossimo, l'annuncio dell'architettura è avvenuto in giro due e mezzo anni fa. Sempre lo scorso agosto, il produttore di circuiti integrati GlobalFoundries, che ha collaborato con AMD, interrotto lo sviluppo Processi tecnici a 7 nm (ulteriori informazioni sulle ragioni di questa decisione si trovano qui ne abbiamo parlato nel nostro blog su Habré).

Giornalisti и capi di grandi aziende IT Sono anni che non si prevede la morte della legge di Moore. Anche lo stesso Gordon una volta affermatoche la regola da lui formulata cesserà di applicarsi. Tuttavia, la legge di Moore non è l'unico modello che sta perdendo rilevanza e che i produttori di processori stanno seguendo.

Legge di scala di Dennard

È stato formulato nel 1974 dall'ingegnere e sviluppatore della memoria dinamica DRAM Robert Dennard, insieme ai colleghi dell'IBM. La regola è questa:

"Riducendo le dimensioni del transistor e aumentando la velocità di clock del processore, possiamo facilmente aumentarne le prestazioni."

La regola di Dennard stabilì la riduzione della larghezza del conduttore (processo tecnico) come principale indicatore del progresso nel settore della tecnologia dei microprocessori. Ma la legge di scala di Dennard ha smesso di funzionare intorno al 2006. Il numero di transistor nei chip continua ad aumentare, ma questo è un fatto non dà un aumento significativo alle prestazioni del dispositivo.

Ad esempio, i rappresentanti di TSMC (produttore di semiconduttori) affermano che il passaggio dalla tecnologia di processo da 7 nm a 5 nm aumenterà velocità di clock del processore solo del 15%.

La ragione del rallentamento della crescita della frequenza è la dispersione di corrente, di cui Dennard non ha tenuto conto alla fine degli anni '70. Man mano che la dimensione del transistor diminuisce e la frequenza aumenta, la corrente inizia a riscaldare maggiormente il microcircuito, il che può danneggiarlo. Pertanto, i produttori devono bilanciare la potenza allocata dal processore. Di conseguenza, dal 2006, la frequenza dei chip prodotti in serie è stata fissata a 4-5 GHz.

Oltre a Moore, chi altro ha formulato le leggi per la scalabilità dei sistemi informatici?
/ foto Jason Leung Unsplash

Oggi gli ingegneri stanno lavorando su nuove tecnologie che risolveranno il problema e aumenteranno le prestazioni dei microcircuiti. Ad esempio, specialisti dall'Australia si stanno sviluppando un transistor metallo-aria che ha una frequenza di diverse centinaia di gigahertz. Il transistor è costituito da due elettrodi metallici che fungono da drain e source e si trovano ad una distanza di 35 nm. Si scambiano elettroni tra loro a causa del fenomeno emissione sul campo.

Secondo gli sviluppatori, il loro dispositivo consentirà di smettere di "rincorrere" per ridurre i processi tecnologici e di concentrarsi sulla costruzione di strutture 3D ad alte prestazioni con un gran numero di transistor su un chip.

Regola Kumi

Il suo formulato nel 2011 dal professore di Stanford Jonathan Koomey. Insieme ai colleghi di Microsoft, Intel e Carnegie Mellon University, lui analizzato le informazioni sul consumo energetico dei sistemi informatici a partire dal computer ENIAC costruito nel 1946. Di conseguenza, Kumi è giunto alla seguente conclusione:

“La quantità di elaborazione per kilowatt di energia sotto carico statico raddoppia ogni anno e mezzo”.

Allo stesso tempo ha osservato che negli ultimi anni è aumentato anche il consumo energetico dei computer.

Nel 2015 Kumi è tornato al suo lavoro e ha integrato lo studio con nuovi dati. Ha scoperto che la tendenza da lui descritta era rallentata. La prestazione media dei chip per kilowatt di energia ha iniziato a raddoppiare all’incirca ogni tre anni. La tendenza è cambiata a causa delle difficoltà legate al raffreddamento dei chip (стр. 4), poiché al diminuire delle dimensioni del transistor, diventa più difficile rimuovere il calore.

Oltre a Moore, chi altro ha formulato le leggi per la scalabilità dei sistemi informatici?
/ foto Derek Tommaso CC BY-ND

Sono attualmente in fase di sviluppo nuove tecnologie di raffreddamento dei chip, ma non si parla ancora della loro implementazione di massa. Ad esempio, hanno proposto gli sviluppatori di un'università di New York utilizzare stampa laser 3D per applicare un sottile strato termoconduttore di titanio, stagno e argento sul cristallo. La conduttività termica di tale materiale è 7 volte migliore di quella di altre interfacce termiche (pasta termica e polimeri).

Nonostante tutti i fattori secondo Kumi, il limite energetico teorico è ancora lontano. Cita una ricerca del fisico Richard Feynman, che nel 1985 notò che l'efficienza energetica dei processori sarebbe aumentata di 100 miliardi di volte. Nel 2011 questa cifra era aumentata solo di 40mila volte.

Il settore IT è abituato alla rapida crescita della potenza di calcolo, pertanto gli ingegneri sono alla ricerca di modi per estendere la legge di Moore e superare le sfide imposte dalle regole di Coomey e Dennard. In particolare, aziende e istituti di ricerca sono alla ricerca di sostituti delle tradizionali tecnologie a transistor e silicio. Parleremo di alcune delle possibili alternative la prossima volta.

Di cosa scriviamo nel blog aziendale:

I nostri report da VMware EMPOWER 2019 su Habré:

Fonte: habr.com

Aggiungi un commento