Intel dela na optičnih čipih za učinkovitejši AI

Fotonska integrirana vezja ali optični čipi potencialno ponujajo številne prednosti pred svojimi elektronskimi dvojniki, kot sta zmanjšana poraba energije in zmanjšana zakasnitev pri računanju. Zato mnogi raziskovalci verjamejo, da so lahko izjemno učinkoviti pri nalogah strojnega učenja in umetne inteligence (AI). Intel tudi v tej smeri vidi velike možnosti za uporabo silicijeve fotonike. Njena raziskovalna ekipa v znanstveni članek podrobne nove tehnike, ki bi lahko optične nevronske mreže pripeljale korak bližje realnosti.

Intel dela na optičnih čipih za učinkovitejši AI

V nedavnem Intelove objave v spletnem dnevniku, posvečeno strojnemu učenju, opisuje, kako so se začele raziskave na področju optičnih nevronskih mrež. Raziskovalno delo Davida AB Millerja in Michaela Recka je pokazalo, da je vrsto fotonskega vezja, znanega kot Mach-Zehnderjev interferometer (MZI), mogoče konfigurirati za izvajanje 2 × 2 matričnega množenja in če MZI postavite na trikotno mrežo za množenje velikih matrik , lahko dobimo vezje, ki izvaja algoritem množenja matričnih vektorjev, osnovni izračun, ki se uporablja pri strojnem učenju.

Nova Intelova raziskava se je osredotočila na to, kaj se zgodi, ko različne napake, na katere so optični čipi dovzetni med proizvodnjo (ker je računalniška fotonika analogne narave), povzročijo razlike v računski natančnosti med različnimi čipi iste vrste. Čeprav so bile izvedene podobne študije, so se v preteklosti bolj osredotočale na optimizacijo po izdelavi, da bi odpravili morebitne netočnosti. Toda ta pristop ima slabo razširljivost, ko omrežja postajajo večja, kar ima za posledico povečanje računalniške moči, potrebne za postavitev optičnih omrežij. Namesto optimizacije po izdelavi je Intel razmislil o enkratni uporabi čipov za usposabljanje pred proizvodnjo z uporabo arhitekture, odporne na hrup. Referenčna optična nevronska mreža je bila trenirana enkrat, nato pa so bili parametri usposabljanja porazdeljeni po več izdelanih primerkih omrežja z razlikami v njihovih komponentah.

Intelova ekipa je upoštevala dve arhitekturi za gradnjo sistemov umetne inteligence, ki temeljijo na MZI: GridNet in FFTNet. GridNet predvidljivo postavlja MZI v mrežo, medtem ko jih FFTNet postavlja v metulje. Po treningu obeh v simulaciji na nalogi primerjalnega preizkusa globokega učenja pri prepoznavanju ročno napisanih številk (MNIST) so raziskovalci ugotovili, da je GridNet dosegel višjo natančnost kot FFTNet (98 % v primerjavi s 95 %), vendar je bila arhitektura FFTNet "bistveno bolj robustna." Pravzaprav je zmogljivost GridNet padla pod 50 % z dodatkom umetnega hrupa (motnje, ki simulirajo možne napake pri izdelavi optičnih čipov), medtem ko je za FFTNet ostala skoraj nespremenjena.

Znanstveniki pravijo, da njihova raziskava postavlja temelje za metode usposabljanja umetne inteligence, ki bi lahko odpravile potrebo po natančnem nastavljanju optičnih čipov po njihovi proizvodnji, s čimer bi prihranili dragoceni čas in vire.

»Kot pri vsakem proizvodnem procesu se bodo pojavile določene napake, kar pomeni, da bodo med čipi majhne razlike, ki bodo vplivale na natančnost izračunov,« piše Casimir Wierzynski, višji direktor Intel AI Product Group. »Če naj bi optične nevronske entitete postale uspešen del ekosistema strojne opreme AI, se bodo morale premakniti na večje čipe in industrijske proizvodne tehnologije. Naše raziskave kažejo, da lahko vnaprejšnja izbira prave arhitekture znatno poveča verjetnost, da bodo nastali čipi dosegli želeno zmogljivost, tudi ob prisotnosti proizvodnih različic.«

V istem času, ko Intel izvaja predvsem raziskave, je doktorski kandidat MIT Yichen Shen ustanovil bostonsko zagonsko podjetje Lightelligence, ki je zbralo 10,7 milijona dolarjev tveganega financiranja in nedavno dokazano prototip optičnega čipa za strojno učenje, ki je 100-krat hitrejši od sodobnih elektronskih čipov in tudi zmanjša porabo energije za red velikosti, kar ponovno jasno dokazuje obljube fotonskih tehnologij.



Vir: 3dnews.ru

Dodaj komentar