Además de Moore, ¿quién más formuló las leyes para escalar los sistemas informáticos?

Estamos hablando de dos normas que también empiezan a perder relevancia.

Además de Moore, ¿quién más formuló las leyes para escalar los sistemas informáticos?
/ foto Laura ockel Unsplash

La Ley de Moore fue formulada hace más de cincuenta años. Durante todo este tiempo, se mantuvo justo en su mayor parte. Incluso hoy en día, al pasar de un proceso tecnológico a otro, la densidad de los transistores en un chip aproximadamente duplica su tamaño. Pero hay un problema: la velocidad de desarrollo de nuevos procesos tecnológicos se está desacelerando.

Por ejemplo, Intel retrasó durante mucho tiempo la producción en masa de sus procesadores Ice Lake de 10 nm. Si bien el gigante de TI comenzará a enviar dispositivos el próximo mes, el anuncio de la arquitectura tuvo lugar alrededor dos y medio hace años que. También en agosto pasado, el fabricante de circuitos integrados GlobalFoundries, que trabajó con AMD, desarrollo detenido Procesos técnicos de 7 nm (más sobre los motivos de esta decisión, hablado en nuestro blog sobre Habré).

Los periodistas и jefes de grandes empresas de TI Han pasado años desde que predijeron la muerte de la ley de Moore. Incluso el propio Gordon una vez dichoque la norma que formuló dejará de aplicarse. Sin embargo, la ley de Moore no es el único patrón que está perdiendo relevancia y que están siguiendo los fabricantes de procesadores.

Ley de escala de Dennard

Fue formulado en 1974 por el ingeniero y desarrollador de memoria dinámica DRAM Robert Dennard, junto con colegas de IBM. La regla es la siguiente:

"Al reducir el tamaño del transistor y aumentar la velocidad del reloj del procesador, podemos aumentar fácilmente su rendimiento".

La regla de Dennard estableció la reducción del ancho del conductor (proceso técnico) como el principal indicador del progreso en la industria de la tecnología de microprocesadores. Pero la ley de escala de Dennard dejó de funcionar alrededor de 2006. El número de transistores en los chips sigue aumentando, pero este hecho no da un aumento significativo al rendimiento del dispositivo.

Por ejemplo, representantes de TSMC (fabricante de semiconductores) dicen que la transición de la tecnología de proceso de 7 nm a 5 nm aumentará velocidad del reloj del procesador en sólo un 15%.

La razón de la desaceleración en el crecimiento de la frecuencia es la fuga de corriente, que Dennard no tuvo en cuenta a finales de los años 70. A medida que disminuye el tamaño del transistor y aumenta la frecuencia, la corriente comienza a calentar más el microcircuito, lo que puede dañarlo. Por tanto, los fabricantes deben equilibrar la potencia asignada por el procesador. Como resultado, desde 2006, la frecuencia de los chips producidos en masa se ha fijado entre 4 y 5 GHz.

Además de Moore, ¿quién más formuló las leyes para escalar los sistemas informáticos?
/ foto Jason Leung Unsplash

Hoy en día, los ingenieros están trabajando en nuevas tecnologías que resolverán el problema y aumentarán el rendimiento de los microcircuitos. Por ejemplo, especialistas de Australia desarrollar un transistor de metal-aire que tiene una frecuencia de varios cientos de gigahercios. El transistor consta de dos electrodos metálicos que actúan como drenaje y fuente y se encuentran a una distancia de 35 nm. Intercambian electrones entre sí debido al fenómeno. emisión de campo.

Según los desarrolladores, su dispositivo permitirá dejar de “perseguir” para reducir los procesos tecnológicos y concentrarse en construir estructuras 3D de alto rendimiento con una gran cantidad de transistores en un chip.

Regla Kumi

Su formulado en 2011 por el profesor de Stanford Jonathan Koomey. Junto con colegas de Microsoft, Intel y la Universidad Carnegie Mellon, analizó la información sobre el consumo de energía de los sistemas informáticos a partir de la computadora ENIAC construida en 1946. Como resultado, Kumi llegó a la siguiente conclusión:

"La cantidad de computación por kilovatio de energía bajo carga estática se duplica cada año y medio".

Al mismo tiempo, señaló que en los últimos años también ha aumentado el consumo de energía de los ordenadores.

En 2015, Kumi Regresé a su trabajo y complementó el estudio con nuevos datos. Descubrió que la tendencia que describió se había desacelerado. El rendimiento promedio de los chips por kilovatio de energía ha comenzado a duplicarse aproximadamente cada tres años. La tendencia cambió debido a las dificultades asociadas con la refrigeración de los chips (Стр. 4), ya que a medida que disminuye el tamaño del transistor, se vuelve más difícil eliminar el calor.

Además de Moore, ¿quién más formuló las leyes para escalar los sistemas informáticos?
/ foto Derek Thomas CC BY-ND

Actualmente se están desarrollando nuevas tecnologías de refrigeración de chips, pero aún no se habla de su implementación masiva. Por ejemplo, los desarrolladores de una universidad de Nueva York propusieron utilizar Impresión láser 3D para aplicar una fina capa conductora de calor de titanio, estaño y plata sobre el cristal. La conductividad térmica de dicho material es 7 veces mejor que la de otras interfaces térmicas (pasta térmica y polímeros).

A pesar de todos los factores según Kumi, el límite energético teórico aún está lejos. Cita una investigación del físico Richard Feynman, quien señaló en 1985 que la eficiencia energética de los procesadores aumentaría 100 mil millones de veces. En el año 2011, esta cifra aumentó sólo 40 mil veces.

La industria de TI está acostumbrada al rápido crecimiento de la potencia informática, por lo que los ingenieros están buscando formas de ampliar la Ley de Moore y superar los desafíos impuestos por las reglas de Coomey y Dennard. En particular, las empresas y los institutos de investigación buscan sustitutos para las tecnologías tradicionales de transistores y silicio. Hablaremos de algunas de las posibles alternativas la próxima vez.

Sobre qué escribimos en el blog corporativo:

Nuestros informes de VMware EMPOWER 2019 sobre Habré:

Fuente: habr.com

Añadir un comentario