اینتل در حال کار بر روی تراشه های نوری برای هوش مصنوعی کارآمدتر است

مدارهای مجتمع فوتونیک یا تراشه های نوری به طور بالقوه مزایای زیادی نسبت به همتایان الکترونیکی خود دارند، مانند کاهش مصرف انرژی و کاهش تاخیر در محاسبات. به همین دلیل است که بسیاری از محققان بر این باورند که می توانند در یادگیری ماشین و وظایف هوش مصنوعی (AI) بسیار موثر باشند. اینتل همچنین چشم اندازهای بزرگی برای استفاده از فوتونیک سیلیکون در این راستا می بیند. تیم تحقیقاتی او در مقاله علمی تکنیک‌های جدید دقیقی که می‌تواند شبکه‌های عصبی نوری را یک قدم به واقعیت نزدیک‌تر کند.

اینتل در حال کار بر روی تراشه های نوری برای هوش مصنوعی کارآمدتر است

در اخیر پست های وبلاگ اینتلکه به یادگیری ماشین اختصاص دارد، چگونگی شروع تحقیقات در زمینه شبکه های عصبی نوری را توضیح می دهد. تحقیقات دیوید AB میلر و مایکل رک نشان داده است که یک نوع مدار فوتونیک به نام تداخل سنج ماخ زندر (MZI) را می توان طوری پیکربندی کرد که ضرب ماتریس 2 × 2 را هنگامی که MZI روی یک شبکه مثلثی برای ضرب ماتریس های بزرگ قرار می گیرد، پیکربندی کرد. مداری را بدست آورید که الگوریتم ضرب ماتریس-بردار را پیاده سازی می کند، یک محاسبه اساسی که در یادگیری ماشین استفاده می شود.

تحقیقات جدید اینتل بر روی این موضوع متمرکز شده است که چه اتفاقی می‌افتد وقتی نقص‌های مختلفی که تراشه‌های نوری در طول ساخت به آن‌ها حساس هستند (از آنجایی که فوتونیک محاسباتی ماهیت آنالوگ دارد) باعث ایجاد تفاوت در دقت محاسباتی بین تراشه‌های مختلف از یک نوع می‌شود. اگرچه مطالعات مشابهی انجام شده است، اما در گذشته بیشتر بر روی بهینه سازی پس از ساخت تمرکز داشتند تا نادرستی های احتمالی را حذف کنند. اما این رویکرد با بزرگتر شدن شبکه ها مقیاس پذیری ضعیفی دارد و در نتیجه قدرت محاسباتی مورد نیاز برای راه اندازی شبکه های نوری افزایش می یابد. اینتل به جای بهینه سازی پس از ساخت، تراشه های آموزشی را یک بار قبل از ساخت با استفاده از معماری مقاوم در برابر نویز در نظر گرفت. شبکه عصبی نوری مرجع یک بار آموزش داده شد، پس از آن پارامترهای آموزشی در چندین نمونه شبکه ساخته شده با تفاوت در اجزای آنها توزیع شدند.

تیم اینتل دو معماری را برای ساخت سیستم های هوش مصنوعی مبتنی بر MZI در نظر گرفت: GridNet و FFTNet. GridNet به طور قابل پیش بینی MZI ها را در یک شبکه قرار می دهد، در حالی که FFTNet آنها را در پروانه ها قرار می دهد. پس از آموزش شبیه‌سازی روی تکلیف معیار یادگیری عمیق تشخیص رقم دست‌نویس (MNIST)، محققان دریافتند که GridNet به دقت بالاتری نسبت به FFTNet (98٪ در مقابل 95٪) دست یافت، اما معماری FFTNet "به‌طور قابل‌توجهی قوی‌تر بود." در واقع، عملکرد GridNet با افزودن نویز مصنوعی (تداخلی که نقص‌های احتمالی در ساخت تراشه‌های نوری را شبیه‌سازی می‌کند) به زیر 50 درصد کاهش یافت، در حالی که برای FFTNet تقریباً ثابت ماند.

دانشمندان می گویند تحقیقات آنها پایه و اساس روش های آموزش هوش مصنوعی را ایجاد می کند که می تواند نیاز به تنظیم دقیق تراشه های نوری را پس از تولید از بین ببرد و در زمان و منابع ارزشمند صرفه جویی کند.

کازیمیر ویرزینسکی، مدیر ارشد گروه محصولات هوش مصنوعی اینتل، می‌نویسد: «مانند هر فرآیند تولید، نقص‌های خاصی رخ می‌دهد که به این معنی است که تفاوت‌های کوچکی بین تراشه‌ها وجود خواهد داشت که بر دقت محاسبات تأثیر می‌گذارد. «اگر قرار است موجودات عصبی نوری به بخشی قابل دوام از اکوسیستم سخت‌افزاری هوش مصنوعی تبدیل شوند، باید به سمت تراشه‌های بزرگتر و فناوری‌های تولید صنعتی بروند. تحقیقات ما نشان می‌دهد که انتخاب معماری مناسب از قبل می‌تواند احتمال دستیابی تراشه‌های به‌دست‌آمده به عملکرد مطلوب را حتی در صورت وجود تغییرات تولید، به‌طور قابل‌توجهی افزایش دهد.

همزمان با انجام تحقیقات اولیه اینتل، یچن شن، کاندیدای دکترای MIT، استارت آپ Lightelligence مستقر در بوستون را تأسیس کرد که 10,7 میلیون دلار سرمایه گذاری خطرپذیر و سرمایه گذاری را جمع آوری کرده است. اخیرا نشان داده است یک نمونه اولیه تراشه نوری برای یادگیری ماشینی که 100 برابر سریعتر از تراشه های الکترونیکی مدرن است و همچنین مصرف انرژی را تا اندازه ای کاهش می دهد که بار دیگر به وضوح نوید فناوری های فوتونیکی را نشان می دهد.



منبع: 3dnews.ru

اضافه کردن نظر