Fotoniske integrerede kredsløb, eller optiske chips, tilbyder potentielt mange fordele i forhold til deres elektroniske modstykker, såsom reduceret strømforbrug og reduceret latens i beregningen. Det er derfor, mange forskere mener, at de kan være ekstremt effektive i maskinlæring og kunstig intelligens (AI) opgaver. Intel ser også store perspektiver for brugen af siliciumfotonik i denne retning. Hendes forskerhold i
I en nylig
Ny Intel-forskning fokuserede på, hvad der sker, når forskellige defekter, som optiske chips er modtagelige for under fremstilling (da beregningsfotonik er analog af natur) forårsager forskelle i beregningsnøjagtighed mellem forskellige chips af samme type. Selvom lignende undersøgelser er blevet udført, fokuserede de tidligere mere på post-fabrikationsoptimering for at eliminere mulige unøjagtigheder. Men denne tilgang har dårlig skalerbarhed, efterhånden som netværk bliver større, hvilket resulterer i en stigning i den computerkraft, der kræves for at oprette optiske netværk. I stedet for optimering efter fabrikation overvejede Intel at træne chips én gang før fremstilling ved at bruge en støjtolerant arkitektur. Det optiske neurale referencenetværk blev trænet én gang, hvorefter træningsparametrene blev fordelt på tværs af flere fremstillede netværksinstanser med forskelle i deres komponenter.
Intel-teamet overvejede to arkitekturer til at bygge kunstig intelligens-systemer baseret på MZI: GridNet og FFTNet. GridNet placerer forudsigeligt MZI'er i et gitter, mens FFTNet placerer dem i sommerfugle. Efter at have trænet begge i en simulering på den håndskrevne ciffergenkendelse deep learning benchmark opgave (MNIST), fandt forskerne ud af, at GridNet opnåede højere nøjagtighed end FFTNet (98 % vs. 95 %), men FFTNet-arkitekturen var "betydeligt mere robust." Faktisk faldt GridNets ydeevne til under 50 % med tilføjelsen af kunstig støj (interferens, der simulerer mulige defekter i fremstilling af optiske chip), mens den for FFTNet forblev næsten konstant.
Forskerne siger, at deres forskning lægger grundlaget for kunstig intelligens træningsmetoder, der kunne eliminere behovet for at finjustere optiske chips, efter at de er produceret, hvilket sparer værdifuld tid og ressourcer.
"Som med enhver fremstillingsproces vil der opstå visse defekter, der betyder, at der vil være små forskelle mellem chips, der vil påvirke nøjagtigheden af beregningerne," skriver Casimir Wierzynski, seniordirektør for Intel AI Product Group. "Hvis optiske neurale entiteter skal blive en levedygtig del af AI-hardwareøkosystemet, bliver de nødt til at flytte til større chips og industrielle produktionsteknologier. Vores forskning viser, at valg af den rigtige arkitektur på forhånd kan øge sandsynligheden for, at de resulterende chips vil opnå den ønskede ydeevne, selv i tilstedeværelsen af produktionsvariationer."
Samtidig med at Intel primært udfører forskning, grundlagde MIT PhD-kandidat Yichen Shen den Boston-baserede startup Lightelligence, som har rejst 10,7 millioner dollars i venturefinansiering og
Kilde: 3dnews.ru