Ademais de Moore, quen máis formulou as leis para escalar sistemas informáticos?

Falamos de dúas normas que tamén comezan a perder relevancia.

Ademais de Moore, quen máis formulou as leis para escalar sistemas informáticos?
/ foto Laura Ockel Unsplash

A Lei de Moore formulouse hai máis de cincuenta anos. Durante todo este tempo, mantívose xusto na súa maior parte. Aínda hoxe, ao pasar dun proceso tecnolóxico a outro, a densidade dos transistores nun chip aproximadamente dobra o seu tamaño. Pero hai un problema: a velocidade de desenvolvemento de novos procesos tecnolóxicos está a diminuír.

Por exemplo, Intel atrasou a produción en masa dos seus procesadores Ice Lake de 10 nm durante moito tempo. Aínda que o xigante das TI comezará a enviar dispositivos o próximo mes, o anuncio da arquitectura tivo lugar ao redor dous e medio fai anos. Tamén o pasado agosto, o fabricante de circuítos integrados GlobalFoundries, que traballou con AMD, detivo o desenvolvemento Procesos técnicos de 7 nm (máis información sobre os motivos desta decisión do que falamos no noso blog sobre Habré).

Xornalistas и responsables de grandes empresas informáticas Hai anos que non predicen a morte da lei de Moore. Incluso o propio Gordon unha vez declaradoque a norma que formulou deixará de aplicarse. Porén, a lei de Moore non é o único patrón que está perdendo relevancia e que seguen os fabricantes de procesadores.

Lei de escala de Dennard

Foi formulado en 1974 polo enxeñeiro e desenvolvedor de DRAM de memoria dinámica Robert Dennard, xunto con colegas de IBM. A regra é así:

"Ao reducir o tamaño do transistor e aumentar a velocidade do reloxo do procesador, podemos aumentar facilmente o seu rendemento".

A regra de Dennard estableceu a redución do ancho do condutor (proceso técnico) como o principal indicador do progreso na industria da tecnoloxía de microprocesadores. Pero a lei de escala de Dennard deixou de funcionar ao redor de 2006. O número de transistores en chips segue a aumentar, pero este feito non dá un aumento significativo ao rendemento do dispositivo.

Por exemplo, os representantes de TSMC (fabricante de semicondutores) din que a transición da tecnoloxía de proceso de 7 nm a 5 nm aumentará velocidade do reloxo do procesador só un 15%.

O motivo da desaceleración do crecemento da frecuencia é a fuga de corrente, que Dennard non tivo en conta a finais dos anos 70. A medida que o tamaño do transistor diminúe e a frecuencia aumenta, a corrente comeza a quentar máis o microcircuíto, o que pode danalo. Polo tanto, os fabricantes teñen que equilibrar a potencia asignada polo procesador. Como resultado, desde 2006, a frecuencia dos chips producidos en masa estableceuse entre 4 e 5 GHz.

Ademais de Moore, quen máis formulou as leis para escalar sistemas informáticos?
/ foto Jason Leung Unsplash

Hoxe, os enxeñeiros traballan en novas tecnoloxías que resolverán o problema e aumentarán o rendemento dos microcircuítos. Por exemplo, especialistas de Australia están a desenvolver un transistor metal-aire que ten unha frecuencia de varios centos de gigahercios. O transistor está formado por dous electrodos metálicos que actúan como drenaxe e fonte e están situados a unha distancia de 35 nm. Intercambian electróns entre si debido ao fenómeno emisións autoelectrónicas.

Segundo os desenvolvedores, o seu dispositivo permitirá deixar de "perseguir" para reducir os procesos tecnolóxicos e concentrarse na construción de estruturas 3D de alto rendemento cunha gran cantidade de transistores nun chip.

Regra Kumi

A súa formulado en 2011 polo profesor de Stanford Jonathan Koomey. Xunto con colegas de Microsoft, Intel e Carnegie Mellon University, el analizou a información sobre o consumo enerxético dos sistemas informáticos a partir do ordenador ENIAC construído en 1946. Como resultado, Kumi chegou á seguinte conclusión:

"A cantidade de cálculo por quilowatt de enerxía baixo carga estática duplícase cada ano e medio".

Ao mesmo tempo, sinalou que o consumo de enerxía dos ordenadores tamén aumentou nos últimos anos.

En 2015, Kumi volveu ao seu traballo e complementou o estudo con novos datos. Descubriu que a tendencia que describiu diminuíu. O rendemento medio do chip por quilowatt de enerxía comezou a duplicarse aproximadamente cada tres anos. A tendencia cambiou debido ás dificultades asociadas aos chips de refrixeración (páxina 4), xa que a medida que o tamaño do transistor diminúe, faise máis difícil eliminar a calor.

Ademais de Moore, quen máis formulou as leis para escalar sistemas informáticos?
/ foto Derek Thomas CC BY ND

Actualmente están a desenvolverse novas tecnoloxías de refrixeración de chips, pero aínda non se fala da súa implantación masiva. Por exemplo, os desenvolvedores dunha universidade de Nova York propuxeron uso Impresión 3D con láser para aplicar unha fina capa termocondutora de titanio, estaño e prata sobre o cristal. A condutividade térmica deste material é 7 veces mellor que a doutras interfaces térmicas (pasta térmica e polímeros).

A pesar de todos os factores segundo Kumi, o límite enerxético teórico aínda está lonxe. Cita a investigación do físico Richard Feynman, quen sinalou en 1985 que a eficiencia enerxética dos procesadores aumentaría 100 millóns de veces. No momento de 2011, esta cifra aumentou só 40 mil veces.

A industria das TI está afeita ao rápido crecemento da potencia informática, polo que os enxeñeiros buscan formas de estender a Lei de Moore e superar os desafíos impostos polas regras de Coomey e Dennard. En particular, empresas e institutos de investigación buscan substitutos para as tecnoloxías tradicionais de transistores e silicio. Falaremos sobre algunhas das alternativas posibles a próxima vez.

Sobre o que escribimos no blog corporativo:

Os nosos informes de VMware EMPOWER 2019 sobre Habré:

Fonte: www.habr.com

Engadir un comentario