AI DeepMind Agent57 pokonuje gry Atari lepiej niż człowiek

Uruchomienie sieci neuronowej w prostych grach wideo to idealny sposób na sprawdzenie efektywności jej uczenia, dzięki prostej możliwości oceny wyników jego ukończenia. Opracowany w 2012 roku przez DeepMind (część Alphabet) benchmark 57 kultowych gier na Atari 2600 stał się papierkiem lakmusowym do testowania możliwości systemów samouczących się. A tu Agent57, zaawansowany agent RL (Reinforcement Learning) DeepMind, ostatnio pokazane stanowił ogromny skok w stosunku do poprzednich systemów i był pierwszą iteracją sztucznej inteligencji, która przekroczyła poziom bazowy ludzkiego gracza.

AI DeepMind Agent57 pokonuje gry Atari lepiej niż człowiek

Agent57 AI uwzględnia doświadczenia poprzednich systemów firmy i łączy algorytmy umożliwiające efektywną eksplorację otoczenia z metakontrolą. W szczególności Agent57 udowodnił swoje nadludzkie umiejętności w Pitfall, Montezuma's Revenge, Solaris i Skiing – grach, które poważnie przetestowały poprzednie sieci neuronowe. Według badań Pitfall i Montezuma's Revenge zmuszają sztuczną inteligencję do dalszych eksperymentów, aby osiągnąć lepsze wyniki. Solaris i Skiing są trudne dla sieci neuronowych, bo oznak sukcesu nie jest zbyt wiele – sztuczna inteligencja długo nie wie, czy postępuje właściwie. DeepMind oparł się na swoich starszych agentach AI, aby umożliwić Agent57 podejmowanie lepszych decyzji dotyczących eksploracji środowiska i oceny wydajności gier, a także optymalizowanie kompromisu między krótkoterminowym i długoterminowym zachowaniem w grach takich jak Skiing.

Wyniki są imponujące, ale przed sztuczną inteligencją wciąż długa droga. Systemy te mogą obsługiwać tylko jedną grę na raz, co zdaniem twórców jest sprzeczne z możliwościami człowieka: „Prawdziwa elastyczność, która tak łatwo przychodzi ludzkiemu mózgowi, wciąż jest poza zasięgiem sztucznej inteligencji”.



Źródło: 3dnews.ru

Dodaj komentarz