Intel está trabalhando em chips ópticos para IA mais eficiente

Os circuitos integrados fotônicos, ou chips ópticos, oferecem potencialmente muitas vantagens sobre seus equivalentes eletrônicos, como redução do consumo de energia e redução da latência na computação. É por isso que muitos pesquisadores acreditam que podem ser extremamente eficazes em tarefas de aprendizado de máquina e inteligência artificial (IA). A Intel também vê grandes perspectivas para o uso da fotônica de silício nessa direção. Sua equipe de pesquisa em artigo científico detalhou novas técnicas que poderiam trazer as redes neurais ópticas um passo mais perto da realidade.

Intel está trabalhando em chips ópticos para IA mais eficiente

No recente Postagens do blog da Intel, dedicado ao aprendizado de máquina, descreve como começaram as pesquisas na área de redes neurais ópticas. A pesquisa de David AB Miller e Michael Reck demonstrou que um tipo de circuito fotônico conhecido como interferômetro Mach-Zehnder (MZI) pode ser configurado para realizar multiplicação de matrizes 2 × 2 quando colocado MZI em uma malha triangular para multiplicar matrizes grandes, pode-se obter um circuito que implemente o algoritmo de multiplicação de matrizes e vetores, um cálculo básico usado em aprendizado de máquina.

Uma nova pesquisa da Intel se concentrou no que acontece quando vários defeitos aos quais os chips ópticos são suscetíveis durante a fabricação (já que a fotônica computacional é de natureza analógica) causam diferenças na precisão computacional entre diferentes chips do mesmo tipo. Embora estudos semelhantes tenham sido realizados, no passado eles se concentraram mais na otimização pós-fabricação para eliminar possíveis imprecisões. Mas esta abordagem tem fraca escalabilidade à medida que as redes se tornam maiores, resultando num aumento no poder computacional necessário para configurar redes ópticas. Em vez da otimização pós-fabricação, a Intel considerou treinar chips uma vez antes da fabricação, usando uma arquitetura tolerante a ruído. A rede neural óptica de referência foi treinada uma vez, após a qual os parâmetros de treinamento foram distribuídos por diversas instâncias de rede fabricadas com diferenças em seus componentes.

A equipe da Intel considerou duas arquiteturas para construção de sistemas de inteligência artificial baseados em MZI: GridNet e FFTNet. O GridNet coloca previsivelmente os MZIs em uma grade, enquanto o FFTNet os coloca em padrões de borboleta. Depois de treinar ambos em uma simulação na tarefa de benchmark de aprendizagem profunda de reconhecimento de dígitos manuscritos (MNIST), os pesquisadores descobriram que o GridNet alcançou maior precisão do que o FFTNet (98% vs. 95%), mas a arquitetura FFTNet era “significativamente mais robusta”. Na verdade, o desempenho do GridNet caiu abaixo de 50% com a adição de ruído artificial (interferência que simula possíveis defeitos na fabricação de chips ópticos), enquanto para o FFTNet permaneceu quase constante.

Os cientistas dizem que a sua investigação estabelece as bases para métodos de treino de inteligência artificial que podem eliminar a necessidade de afinar os chips ópticos depois de produzidos, poupando tempo e recursos valiosos.

“Como acontece com qualquer processo de fabricação, ocorrerão certos defeitos que significam que haverá pequenas diferenças entre os chips que afetarão a precisão dos cálculos”, escreve Casimir Wierzynski, diretor sênior do Intel AI Product Group. “Se as entidades neurais ópticas quiserem se tornar uma parte viável do ecossistema de hardware de IA, elas precisarão migrar para chips maiores e tecnologias de fabricação industrial. Nossa pesquisa mostra que a escolha antecipada da arquitetura certa pode aumentar significativamente a probabilidade de os chips resultantes atingirem o desempenho desejado, mesmo na presença de variações de fabricação.”

Ao mesmo tempo em que a Intel conduz principalmente pesquisas, o candidato a doutorado no MIT, Yichen Shen, fundou a startup Lightelligence, com sede em Boston, que levantou US$ 10,7 milhões em financiamento de risco e recentemente demonstrado um protótipo de chip óptico para aprendizado de máquina que é 100 vezes mais rápido que os chips eletrônicos modernos e também reduz o consumo de energia em uma ordem de grandeza, o que mais uma vez demonstra claramente a promessa das tecnologias fotônicas.



Fonte: 3dnews.ru

Adicionar um comentário