英特尔正在研究光学芯片以提高人工智能的效率

光子集成电路或光学芯片可能比电子芯片具有许多优势,例如降低功耗和减少计算延迟。这就是为什么许多研究人员认为它们在机器学习和人工智能 (AI) 任务中非常有效。英特尔也看到了硅光子学在这个方向上的应用前景。她的研究团队在 科学文章 详细的新技术可以使光学神经网络更接近现实。

英特尔正在研究光学芯片以提高人工智能的效率

在最近 英特尔博客文章致力于机器学习,描述了光学神经网络领域的研究是如何开始的。 David A. B. Miller 和 Michael Reck 的研究表明,一种被称为马赫-曾德干涉仪 (MZI) 的光子电路可以配置为执行 2 × 2 矩阵乘法,其中,如果将 MZI 放置在三角形网格上,用于乘以大矩阵,我们可以获得一个实现矩阵向量乘法算法的电路,这是机器学习中使用的一种基本计算。

英特尔的新研究重点关注光学芯片在制造过程中容易出现的各种缺陷(因为计算光子学本质上是模拟的)导致同一类型的不同芯片之间的计算精度存在差异时会发生什么情况。尽管已经进行了类似的研究,但过去他们更多地关注制造后优化,以消除可能的不准确性。但随着网络变得越来越大,这种方法的可扩展性很差,导致建立光网络所需的计算能力增加。英特尔没有考虑在制造后进行优化,而是考虑在制造前使用一种耐噪声架构对芯片进行一次性训练。参考光学神经网络经过一次训练,之后训练参数分布在几个组件不同的制造网络实例中。

英特尔团队考虑了两种基于 MZI 构建人工智能系统的架构:GridNet 和 FFTNet。 GridNet 可以预见地将 MZI 放置在网格中,而 FFTNet 将它们放置在蝴蝶图案中。在对手写数字识别深度学习基准任务 (MNIST) 进行模拟训练后,研究人员发现 GridNet 的准确率比 FFTNet 更高(98% 比 95%),但 FFTNet 架构“明显更加稳健”。事实上,由于添加了人工噪声(模拟光学芯片制造中可能存在的缺陷的干扰),GridNet 的性能下降到了 50% 以下,而 FFTNet 的性能几乎保持不变。

科学家们表示,他们的研究为人工智能训练方法奠定了基础,可以消除光学芯片生产后对其进行微调的需要,从而节省宝贵的时间和资源。

英特尔人工智能产品部高级总监 Casimir Wierzynski 写道:“与任何制造过程一样,总会出现某些缺陷,这意味着芯片之间​​会存在微小差异,从而影响计算的准确性。” “如果光学神经实体要成为人工智能硬件生态系统的可行部分,它们将需要转向更大的芯片和工业制造技术。我们的研究表明,即使存在制造差异,预先选择正确的架构也可以显着增加最终芯片实现所需性能的可能性。”

在英特尔主要进行研究的同时,麻省理工学院博士生沉一尘创立了总部位于波士顿的初创公司 Lightelligence,该公司已筹集 10,7 万美元的风险投资和 最近展示的 用于机器学习的原型光学芯片,其速度比现代电子芯片快 100 倍,并且功耗降低了一个数量级,这再次清楚地证明了光子技术的前景。



来源: 3dnews.ru

添加评论