مدارهای مجتمع فوتونیک یا تراشه های نوری به طور بالقوه مزایای زیادی نسبت به همتایان الکترونیکی خود دارند، مانند کاهش مصرف انرژی و کاهش تاخیر در محاسبات. به همین دلیل است که بسیاری از محققان بر این باورند که می توانند در یادگیری ماشین و وظایف هوش مصنوعی (AI) بسیار موثر باشند. اینتل همچنین چشم اندازهای بزرگی برای استفاده از فوتونیک سیلیکون در این راستا می بیند. تیم تحقیقاتی او در
در اخیر
تحقیقات جدید اینتل بر روی این موضوع متمرکز شده است که چه اتفاقی میافتد وقتی نقصهای مختلفی که تراشههای نوری در طول ساخت به آنها حساس هستند (از آنجایی که فوتونیک محاسباتی ماهیت آنالوگ دارد) باعث ایجاد تفاوت در دقت محاسباتی بین تراشههای مختلف از یک نوع میشود. اگرچه مطالعات مشابهی انجام شده است، اما در گذشته بیشتر بر روی بهینه سازی پس از ساخت تمرکز داشتند تا نادرستی های احتمالی را حذف کنند. اما این رویکرد با بزرگتر شدن شبکه ها مقیاس پذیری ضعیفی دارد و در نتیجه قدرت محاسباتی مورد نیاز برای راه اندازی شبکه های نوری افزایش می یابد. اینتل به جای بهینه سازی پس از ساخت، تراشه های آموزشی را یک بار قبل از ساخت با استفاده از معماری مقاوم در برابر نویز در نظر گرفت. شبکه عصبی نوری مرجع یک بار آموزش داده شد، پس از آن پارامترهای آموزشی در چندین نمونه شبکه ساخته شده با تفاوت در اجزای آنها توزیع شدند.
تیم اینتل دو معماری را برای ساخت سیستم های هوش مصنوعی مبتنی بر MZI در نظر گرفت: GridNet و FFTNet. GridNet به طور قابل پیش بینی MZI ها را در یک شبکه قرار می دهد، در حالی که FFTNet آنها را در پروانه ها قرار می دهد. پس از آموزش شبیهسازی روی تکلیف معیار یادگیری عمیق تشخیص رقم دستنویس (MNIST)، محققان دریافتند که GridNet به دقت بالاتری نسبت به FFTNet (98٪ در مقابل 95٪) دست یافت، اما معماری FFTNet "بهطور قابلتوجهی قویتر بود." در واقع، عملکرد GridNet با افزودن نویز مصنوعی (تداخلی که نقصهای احتمالی در ساخت تراشههای نوری را شبیهسازی میکند) به زیر 50 درصد کاهش یافت، در حالی که برای FFTNet تقریباً ثابت ماند.
دانشمندان می گویند تحقیقات آنها پایه و اساس روش های آموزش هوش مصنوعی را ایجاد می کند که می تواند نیاز به تنظیم دقیق تراشه های نوری را پس از تولید از بین ببرد و در زمان و منابع ارزشمند صرفه جویی کند.
کازیمیر ویرزینسکی، مدیر ارشد گروه محصولات هوش مصنوعی اینتل، مینویسد: «مانند هر فرآیند تولید، نقصهای خاصی رخ میدهد که به این معنی است که تفاوتهای کوچکی بین تراشهها وجود خواهد داشت که بر دقت محاسبات تأثیر میگذارد. «اگر قرار است موجودات عصبی نوری به بخشی قابل دوام از اکوسیستم سختافزاری هوش مصنوعی تبدیل شوند، باید به سمت تراشههای بزرگتر و فناوریهای تولید صنعتی بروند. تحقیقات ما نشان میدهد که انتخاب معماری مناسب از قبل میتواند احتمال دستیابی تراشههای بهدستآمده به عملکرد مطلوب را حتی در صورت وجود تغییرات تولید، بهطور قابلتوجهی افزایش دهد.
همزمان با انجام تحقیقات اولیه اینتل، یچن شن، کاندیدای دکترای MIT، استارت آپ Lightelligence مستقر در بوستون را تأسیس کرد که 10,7 میلیون دلار سرمایه گذاری خطرپذیر و سرمایه گذاری را جمع آوری کرده است.
منبع: 3dnews.ru