Les circuits intégrés photoniques, ou puces optiques, offrent potentiellement de nombreux avantages par rapport à leurs homologues électroniques, tels qu'une consommation d'énergie réduite et une latence de calcul réduite. C'est pourquoi de nombreux chercheurs pensent qu'ils peuvent être extrêmement efficaces dans les tâches d'apprentissage automatique et d'intelligence artificielle (IA). Intel voit également de grandes perspectives pour l'utilisation de la photonique sur silicium dans cette direction. Son équipe de recherche à
Dans le récent
Une nouvelle recherche d'Intel s'est concentrée sur ce qui se produit lorsque divers défauts auxquels les puces optiques sont sensibles lors de la fabrication (puisque la photonique informatique est de nature analogique) entraînent des différences de précision de calcul entre différentes puces du même type. Bien que des études similaires aient été menées, elles se concentraient auparavant davantage sur l’optimisation post-fabrication afin d’éliminer d’éventuelles inexactitudes. Mais cette approche est peu évolutive à mesure que les réseaux deviennent plus grands, ce qui entraîne une augmentation de la puissance de calcul requise pour mettre en place des réseaux optiques. Au lieu d'une optimisation post-fabrication, Intel a envisagé de former les puces une seule fois avant la fabrication en utilisant une architecture tolérante au bruit. Le réseau neuronal optique de référence a été formé une fois, après quoi les paramètres de formation ont été répartis sur plusieurs instances de réseau fabriquées avec des différences dans leurs composants.
L'équipe Intel a envisagé deux architectures pour créer des systèmes d'intelligence artificielle basés sur MZI : GridNet et FFTNet. GridNet place de manière prévisible les MZI dans une grille, tandis que FFTNet les place selon des motifs papillon. Après avoir entraîné les deux dans une simulation sur la tâche de référence d'apprentissage profond de reconnaissance de chiffres manuscrits (MNIST), les chercheurs ont découvert que GridNet atteignait une précision plus élevée que FFTNet (98 % contre 95 %), mais que l'architecture FFTNet était « considérablement plus robuste ». En fait, les performances de GridNet sont tombées en dessous de 50 % avec l'ajout de bruit artificiel (interférence qui simule d'éventuels défauts dans la fabrication des puces optiques), tandis que pour FFTNet, elles sont restées presque constantes.
Les scientifiques affirment que leurs recherches jettent les bases de méthodes de formation à l’intelligence artificielle qui pourraient éliminer le besoin de peaufiner les puces optiques après leur production, économisant ainsi un temps et des ressources précieux.
"Comme pour tout processus de fabrication, certains défauts se produiront, ce qui signifie qu'il y aura de petites différences entre les puces qui auront un impact sur la précision des calculs", écrit Casimir Wierzynski, directeur principal d'Intel AI Product Group. « Si les entités neuronales optiques veulent devenir un élément viable de l’écosystème matériel de l’IA, elles devront passer à des puces plus grandes et à des technologies de fabrication industrielle. Nos recherches montrent que le choix initial de la bonne architecture peut augmenter considérablement la probabilité que les puces résultantes atteignent les performances souhaitées, même en présence de variations de fabrication.
Alors qu'Intel mène principalement des recherches, Yichen Shen, doctorant au MIT, a fondé la startup Lightelligence, basée à Boston, qui a levé 10,7 millions de dollars en capital-risque et
Source: 3dnews.ru