フォトニック集積回路、つまり光チップは、消費電力の削減や計算の待ち時間の短縮など、対応する電子回路に比べて多くの利点を提供する可能性があります。 そのため、多くの研究者は、機械学習や人工知能 (AI) のタスクにおいて非常に効果的であると信じています。 インテルはまた、この方向でのシリコンフォトニクスの使用に大きな展望があると見ています。 彼女の研究チームは、
最近では
インテルの新しい研究は、製造中に光学チップが影響を受けやすいさまざまな欠陥 (計算フォトニクスは本質的にアナログであるため) が、同じタイプの異なるチップ間で計算精度の違いを引き起こす場合に何が起こるかに焦点を当てています。 同様の研究が行われてきましたが、以前は、不正確の可能性を排除するための製造後の最適化に重点が置かれていました。 しかし、このアプローチでは、ネットワークが大きくなるにつれて拡張性が低くなり、光ネットワークのセットアップに必要な計算能力が増加します。 製造後の最適化の代わりに、Intel はノイズ耐性のあるアーキテクチャを使用して、製造前に XNUMX 回だけチップをトレーニングすることを検討しました。 参照光ニューラル ネットワークは XNUMX 回トレーニングされ、その後、コンポーネントが異なるいくつかの製造されたネットワーク インスタンスにトレーニング パラメーターが分散されました。
Intel チームは、MZI に基づいて人工知能システムを構築するための 98 つのアーキテクチャ、GridNet と FFTNet を検討しました。 GridNet は予想通り MZI をグリッドに配置しますが、FFTNet は MZI をバタフライに配置します。 手書き数字認識深層学習ベンチマーク タスク (MNIST) のシミュレーションで両方をトレーニングした後、研究者らは、GridNet が FFTNet よりも高い精度 (95% 対 50%) を達成したが、FFTNet アーキテクチャは「大幅に堅牢」であることを発見しました。 実際、GridNet のパフォーマンスは人工ノイズ (光チップの製造時に起こり得る欠陥をシミュレートする干渉) の追加により XNUMX% 未満に低下しましたが、FFTNet のパフォーマンスはほぼ一定のままでした。
科学者らは、彼らの研究は、光学チップの製造後に微調整する必要性を排除し、貴重な時間とリソースを節約できる人工知能トレーニング方法の基礎を築くと述べている。
「他の製造プロセスと同様に、特定の欠陥が発生します。つまり、チップ間に小さな差が生じ、計算の精度に影響を及ぼします」と、インテル AI 製品グループのシニア ディレクター、カシミール ヴィアジンスキーは書いています。 「光学ニューラルエンティティがAIハードウェアエコシステムの実行可能な一部になるには、より大きなチップと工業用製造技術に移行する必要があります。 私たちの調査によると、事前に適切なアーキテクチャを選択しておくことで、製造上のばらつきが存在する場合でも、結果として得られるチップが望ましいパフォーマンスを達成できる可能性が大幅に高まることがわかりました。」
インテルが主に研究を行っているのと同じ時期に、MIT 博士課程候補者イーチェン・シェン氏はボストンに本拠を置く新興企業 Lightelligence を設立し、ベンチャー資金で 10,7 万ドルを調達し、
出所: 3dnews.ru