DeepMind Agent57 يتفوق الذكاء الاصطناعي على ألعاب أتاري أفضل من الإنسان

يعد إنشاء شبكة عصبية تعمل من خلال ألعاب فيديو بسيطة طريقة مثالية لاختبار فعالية تدريبها، وذلك بفضل القدرة البسيطة على تقييم نتائج الإنجاز. تم تطويره في عام 2012 بواسطة DeepMind (جزء من Alphabet)، وأصبح المعيار المكون من 57 لعبة Atari 2600 الشهيرة بمثابة اختبار أساسي لاختبار قدرات أنظمة التعلم الذاتي. وهنا Agent57، وكيل RL المتقدم (التعلم المعزز) DeepMind، مؤخرًا وأظهر قفزة هائلة من الأنظمة السابقة وكان أول تكرار للذكاء الاصطناعي يتجاوز خط الأساس للاعب البشري.

DeepMind Agent57 يتفوق الذكاء الاصطناعي على ألعاب أتاري أفضل من الإنسان

يأخذ Agent57 AI في الاعتبار تجربة الأنظمة السابقة للشركة ويجمع بين الخوارزميات للاستكشاف الفعال للبيئة مع التحكم الفوقي. على وجه الخصوص، أثبت Agent57 مهاراته الخارقة في ألعاب Pitfall وMontezuma's Revenge وSolaris وSkiing - وهي الألعاب التي اختبرت بشدة الشبكات العصبية السابقة. وفقًا للبحث، فإن Pitfall وMontezuma's Revenge يجبران الذكاء الاصطناعي على تجربة المزيد لتحقيق نتائج أفضل. يعد Solaris و Skiing أمرًا صعبًا بالنسبة للشبكات العصبية نظرًا لعدم وجود الكثير من علامات النجاح - فالذكاء الاصطناعي لا يعرف لفترة طويلة ما إذا كان يفعل الشيء الصحيح. اعتمدت DeepMind على وكلاء الذكاء الاصطناعي التقليديين للسماح لـ Agent57 باتخاذ قرارات أفضل بشأن استكشاف البيئة وتقييم أداء الألعاب، بالإضافة إلى تحسين المفاضلة بين السلوك قصير المدى وسلوك طويل المدى في ألعاب مثل التزلج.

وكانت النتائج مثيرة للإعجاب، ولكن لا يزال أمام الذكاء الاصطناعي طريق طويل ليقطعه. لا تستطيع هذه الأنظمة التعامل إلا مع لعبة واحدة في كل مرة، الأمر الذي، وفقًا للمطورين، يتعارض مع القدرات البشرية: "المرونة الحقيقية التي تأتي بسهولة إلى العقل البشري لا تزال بعيدة عن متناول الذكاء الاصطناعي".



المصدر: 3dnews.ru

إضافة تعليق