Photonische integrierte Schaltkreise oder optische Chips bieten potenziell viele Vorteile gegenüber ihren elektronischen Gegenstücken, wie z. B. einen geringeren Stromverbrauch und eine geringere Latenz bei der Berechnung. Aus diesem Grund glauben viele Forscher, dass sie bei Aufgaben des maschinellen Lernens und der künstlichen Intelligenz (KI) äußerst effektiv sein können. Auch Intel sieht in dieser Richtung große Chancen für den Einsatz der Silizium-Photonik. Ihr Forschungsteam in
In der letzten Zeit
Die neue Intel-Forschung konzentrierte sich auf die Frage, was passiert, wenn verschiedene Defekte, denen optische Chips während der Herstellung ausgesetzt sind (da rechnerische Photonik von Natur aus analog ist), Unterschiede in der Rechengenauigkeit zwischen verschiedenen Chips desselben Typs verursachen. Obwohl ähnliche Studien durchgeführt wurden, konzentrierten sie sich in der Vergangenheit eher auf die Optimierung nach der Herstellung, um mögliche Ungenauigkeiten zu beseitigen. Allerdings weist dieser Ansatz mit zunehmender Netzwerkgröße eine schlechte Skalierbarkeit auf, was zu einem Anstieg der für den Aufbau optischer Netzwerke erforderlichen Rechenleistung führt. Anstelle einer Optimierung nach der Herstellung erwog Intel, die Chips einmalig vor der Herstellung zu trainieren und dabei eine rauschtolerante Architektur zu verwenden. Das optische neuronale Referenznetzwerk wurde einmal trainiert. Anschließend wurden die Trainingsparameter auf mehrere erstellte Netzwerkinstanzen mit unterschiedlichen Komponenten verteilt.
Das Intel-Team betrachtete zwei Architekturen für den Aufbau künstlicher Intelligenzsysteme auf Basis von MZI: GridNet und FFTNet. GridNet platziert MZIs vorhersehbar in einem Raster, während FFTNet sie in Schmetterlingen platziert. Nach dem Training beider in einer Simulation mit der handschriftlichen Ziffernerkennungs-Deep-Learning-Benchmark-Aufgabe (MNIST) stellten die Forscher fest, dass GridNet eine höhere Genauigkeit als FFTNet erreichte (98 % gegenüber 95 %), die FFTNet-Architektur jedoch „deutlich robuster“ war. Tatsächlich sank die Leistung von GridNet durch die Hinzufügung von künstlichem Rauschen (Interferenz, die mögliche Fehler bei der Herstellung optischer Chips simuliert) auf unter 50 %, während sie bei FFTNet nahezu konstant blieb.
Die Wissenschaftler sagen, dass ihre Forschung den Grundstein für Trainingsmethoden für künstliche Intelligenz legt, die die Notwendigkeit einer Feinabstimmung optischer Chips nach deren Herstellung überflüssig machen könnten, was wertvolle Zeit und Ressourcen spart.
„Wie bei jedem Herstellungsprozess treten bestimmte Fehler auf, die dazu führen, dass es kleine Unterschiede zwischen den Chips gibt, die sich auf die Genauigkeit der Berechnungen auswirken“, schreibt Casimir Wierzynski, Senior Director der Intel AI Product Group. „Wenn optische neuronale Einheiten ein tragfähiger Teil des KI-Hardware-Ökosystems werden sollen, müssen sie auf größere Chips und industrielle Fertigungstechnologien umsteigen. Unsere Forschung zeigt, dass die Wahl der richtigen Architektur im Vorfeld die Wahrscheinlichkeit, dass die resultierenden Chips die gewünschte Leistung erreichen, erheblich erhöhen kann, selbst bei Herstellungsschwankungen.“
Während Intel hauptsächlich Forschung betreibt, gründete der MIT-Doktorand Yichen Shen das in Boston ansässige Startup Lightelligence, das 10,7 Millionen US-Dollar an Risikofinanzierungen eingesammelt hat
Source: 3dnews.ru