Além de Moore, quem mais formulou as leis para dimensionar sistemas de computação?

Estamos falando de duas regras que também começam a perder relevância.

Além de Moore, quem mais formulou as leis para dimensionar sistemas de computação?
/ foto Laura Ockel Unsplash

A Lei de Moore foi formulada há mais de cinquenta anos. Durante todo esse tempo, ele permaneceu justo na maior parte do tempo. Ainda hoje, ao passar de um processo tecnológico para outro, a densidade dos transistores em um chip aproximadamente dobra de tamanho. Mas há um problema - a velocidade de desenvolvimento de novos processos tecnológicos está a abrandar.

Por exemplo, a Intel atrasou por muito tempo a produção em massa de seus processadores Ice Lake de 10 nm. Embora a gigante de TI comece a enviar dispositivos no próximo mês, o anúncio da arquitetura ocorreu por volta de dois e meio anos atrás. Também em agosto passado o fabricante de circuitos integrados GlobalFoundries que trabalhou com a AMD parou o desenvolvimento Processos técnicos de 7 nm (mais sobre os motivos desta decisão nós falamos em nosso blog em Habré).

Jornalistas и chefes de grandes empresas de TI Já se passaram anos desde que previram a morte da lei de Moore. Até o próprio Gordon uma vez declaradoque a regra que ele formulou deixará de ser aplicada. Contudo, a lei de Moore não é o único padrão que está perdendo relevância e que os fabricantes de processadores estão seguindo.

Lei de escala de Dennard

Foi formulado em 1974 pelo engenheiro e desenvolvedor de memória dinâmica DRAM Robert Dennard, juntamente com colegas da IBM. A regra é assim:

“Ao reduzir o tamanho do transistor e aumentar a velocidade do clock do processador, podemos facilmente aumentar seu desempenho.”

A regra de Dennard estabeleceu a redução da largura do condutor (processo técnico) como o principal indicador de progresso na indústria de tecnologia de microprocessadores. Mas a lei de escala de Dennard parou de funcionar por volta de 2006. O número de transistores em chips continua a aumentar, mas este fato não dá um aumento significativo ao desempenho do dispositivo.

Por exemplo, representantes da TSMC (fabricante de semicondutores) dizem que a transição da tecnologia de processo de 7 nm para 5 nm vai aumentar velocidade do clock do processador em apenas 15%.

A razão para a desaceleração no crescimento da frequência é o vazamento de corrente, que Dennard não levou em consideração no final dos anos 70. À medida que o tamanho do transistor diminui e a frequência aumenta, a corrente começa a aquecer mais o microcircuito, o que pode danificá-lo. Portanto, os fabricantes precisam equilibrar a potência alocada pelo processador. Como resultado, desde 2006, a frequência dos chips produzidos em massa foi fixada em 4–5 GHz.

Além de Moore, quem mais formulou as leis para dimensionar sistemas de computação?
/ foto jason leung Unsplash

Hoje, os engenheiros estão trabalhando em novas tecnologias que irão resolver o problema e aumentar o desempenho dos microcircuitos. Por exemplo, especialistas da Austrália desenvolver um transistor metal-ar que tem uma frequência de várias centenas de gigahertz. O transistor consiste em dois eletrodos metálicos que atuam como dreno e fonte e estão localizados a uma distância de 35 nm. Eles trocam elétrons entre si devido ao fenômeno emissão de campo.

Segundo os desenvolvedores, seu dispositivo permitirá parar de “perseguir” a redução de processos tecnológicos e se concentrar na construção de estruturas 3D de alto desempenho com grande número de transistores em um chip.

Regra Kumi

Sua formulado em 2011 pelo professor de Stanford Jonathan Koomey. Juntamente com colegas da Microsoft, Intel e Carnegie Mellon University, ele analisou as informações sobre o consumo de energia dos sistemas de computação, começando com o computador ENIAC construído em 1946. Como resultado, Kumi chegou à seguinte conclusão:

“A quantidade de computação por quilowatt de energia sob carga estática dobra a cada ano e meio.”

Ao mesmo tempo, observou que o consumo de energia dos computadores também aumentou nos últimos anos.

Em 2015, Kumi está de volta ao seu trabalho e complementou o estudo com novos dados. Ele descobriu que a tendência que descreveu havia desacelerado. O desempenho médio do chip por quilowatt de energia começou a dobrar aproximadamente a cada três anos. A tendência mudou devido às dificuldades associadas ao resfriamento de chips (Стр. 4), pois à medida que o tamanho do transistor diminui, fica mais difícil remover o calor.

Além de Moore, quem mais formulou as leis para dimensionar sistemas de computação?
/ foto Derek Thomas CC BY-ND

Novas tecnologias de resfriamento de chips estão sendo desenvolvidas atualmente, mas ainda não se fala em sua implementação em massa. Por exemplo, desenvolvedores de uma universidade em Nova York propuseram usar impressão 3D a laser para aplicação de uma fina camada condutora de calor de titânio, estanho e prata no cristal. A condutividade térmica desse material é 7 vezes melhor que a de outras interfaces térmicas (pasta térmica e polímeros).

Apesar de todos os fatores de acordo com Kumi, o limite teórico de energia ainda está longe. Ele cita uma pesquisa do físico Richard Feynman, que observou em 1985 que a eficiência energética dos processadores aumentaria 100 bilhões de vezes. Na época de 2011, esse número aumentou apenas 40 mil vezes.

A indústria de TI está acostumada ao rápido crescimento do poder computacional, por isso os engenheiros estão procurando maneiras de estender a Lei de Moore e superar os desafios impostos pelas regras de Coomey e Dennard. Em particular, as empresas e os institutos de investigação procuram substitutos para as tecnologias tradicionais de transístores e de silício. Falaremos sobre algumas das alternativas possíveis na próxima vez.

Sobre o que escrevemos no blog corporativo:

Nossos relatórios do VMware EMPOWER 2019 em Habré:

Fonte: habr.com

Adicionar um comentário