Nie możemy ufać systemom AI zbudowanym wyłącznie w oparciu o głębokie uczenie się

Nie możemy ufać systemom AI zbudowanym wyłącznie w oparciu o głębokie uczenie się

Tekst ten nie jest wynikiem badań naukowych, lecz jedną z wielu opinii na temat naszego bezpośredniego rozwoju technologicznego. A zarazem zaproszenie do dyskusji.

Gary Marcus, profesor na Uniwersytecie Nowojorskim, uważa, że ​​głębokie uczenie się odgrywa ważną rolę w rozwoju sztucznej inteligencji. Ale uważa też, że nadmierny entuzjazm dla tej techniki może prowadzić do jej dyskredytacji.

W jego książce Ponowne uruchamianie AI: budowanie sztucznej inteligencji, której możemy zaufać Marcus, neurobiolog z wykształcenia, który zbudował karierę na nowatorskich badaniach nad sztuczną inteligencją, porusza aspekty techniczne i etyczne. Z technologicznego punktu widzenia głębokie uczenie się może z powodzeniem imitować zadania percepcyjne wykonywane przez nasz mózg, takie jak rozpoznawanie obrazu czy mowy. Jednak w przypadku innych zadań, takich jak rozumienie rozmów lub ustalanie związków przyczynowo-skutkowych, głębokie uczenie się nie jest odpowiednie. Aby stworzyć bardziej zaawansowane inteligentne maszyny, które będą w stanie rozwiązać szerszy zakres problemów – często nazywanych sztuczną inteligencją ogólną – głębokie uczenie się należy połączyć z innymi technikami.

Jeśli system AI nie rozumie do końca swoich zadań i otaczającego go świata, może to prowadzić do niebezpiecznych konsekwencji. Nawet najmniejsze nieoczekiwane zmiany w środowisku systemu mogą prowadzić do błędnego zachowania. Takich przykładów było już wiele: wyznaczniki wyrażeń niewłaściwych, które łatwo oszukać; systemy poszukiwania pracy, które konsekwentnie dyskryminują; samochody autonomiczne, które ulegają awariom i czasami zabijają kierowcę lub pieszego. Tworzenie sztucznej inteligencji ogólnej to nie tylko ciekawy problem badawczy, ma wiele całkowicie praktycznych zastosowań.

W swojej książce Marcus i jego współautor Ernest Davis opowiadają się za inną ścieżką. Uważają, że daleko nam jeszcze do stworzenia ogólnej sztucznej inteligencji, ale mają pewność, że prędzej czy później uda się ją stworzyć.

Dlaczego potrzebujemy ogólnej sztucznej inteligencji? Powstały już specjalistyczne wersje, które przynoszą wiele korzyści.

Zgadza się, a korzyści będzie jeszcze więcej. Istnieje jednak wiele problemów, których wyspecjalizowana sztuczna inteligencja po prostu nie jest w stanie rozwiązać. Na przykład rozumienie zwykłej mowy, czy ogólna pomoc w wirtualnym świecie, czy robot pomagający w sprzątaniu i gotowaniu. Takie zadania wykraczają poza możliwości wyspecjalizowanej sztucznej inteligencji. Kolejne ciekawe pytanie praktyczne: czy możliwe jest stworzenie bezpiecznego samochodu autonomicznego przy użyciu specjalistycznej sztucznej inteligencji? Doświadczenie pokazuje, że taka sztuczna inteligencja nadal ma wiele problemów z zachowaniem w nietypowych sytuacjach, nawet podczas jazdy, co znacznie komplikuje sytuację.

Myślę, że wszyscy chcielibyśmy mieć sztuczną inteligencję, która pomogłaby nam w dokonaniu nowych, wielkich odkryć w medycynie. Nie jest jasne, czy obecne technologie są do tego odpowiednie, ponieważ biologia jest dziedziną złożoną. Trzeba się przygotować na przeczytanie wielu książek. Naukowcy rozumieją związki przyczynowo-skutkowe w interakcji sieci i cząsteczek, mogą opracowywać teorie na temat planet i tak dalej. Mając jednak wyspecjalizowaną sztuczną inteligencję, nie jesteśmy w stanie stworzyć maszyn zdolnych do takich odkryć. A dzięki ogólnej sztucznej inteligencji moglibyśmy zrewolucjonizować naukę, technologię i medycynę. Moim zdaniem bardzo ważna jest kontynuacja prac nad stworzeniem ogólnej sztucznej inteligencji.

Wygląda na to, że przez „ogólne” masz na myśli silną sztuczną inteligencję?

Przez „ogólne” mam na myśli to, że sztuczna inteligencja będzie w stanie na bieżąco myśleć i rozwiązywać nowe problemy. W przeciwieństwie do, powiedzmy, Go, gdzie problem nie zmienił się przez ostatnie 2000 lat.

Ogólna sztuczna inteligencja powinna móc podejmować decyzje zarówno w polityce, jak i medycynie. Jest to analogiczne do ludzkich zdolności; każdy zdrowy na umyśle człowiek może wiele. Bierzesz niedoświadczonych studentów i w ciągu kilku dni każesz im pracować nad niemal wszystkim, od problemu prawnego po problem medyczny. Dzieje się tak dlatego, że mają ogólną wiedzę o świecie i potrafią czytać, dzięki czemu mogą brać udział w bardzo szerokim zakresie działań.

Związek między taką inteligencją a silną inteligencją jest taki, że inteligencja niesilna prawdopodobnie nie będzie w stanie rozwiązać ogólnych problemów. Aby stworzyć coś wystarczająco solidnego, aby poradzić sobie z ciągle zmieniającym się światem, być może będziesz musiał przynajmniej zbliżyć się do ogólnej inteligencji.

Ale teraz jesteśmy od tego bardzo dalecy. AlphaGo może doskonale grać na planszy 19x19, ale wymaga przeszkolenia, aby grać na planszy prostokątnej. Lub weźmy przeciętny system głębokiego uczenia się: potrafi rozpoznać słonia, jeśli jest dobrze oświetlony i widoczna jest jego skóra. A jeśli widoczna będzie tylko sylwetka słonia, system prawdopodobnie nie będzie w stanie jej rozpoznać.

W swojej książce wspominasz, że głębokie uczenie się nie jest w stanie osiągnąć możliwości ogólnej sztucznej inteligencji, ponieważ nie jest zdolne do głębokiego zrozumienia.

W kognitywistyce mówi się o tworzeniu różnych modeli poznawczych. Siedzę w pokoju hotelowym i rozumiem, że jest szafa, jest łóżko, jest telewizor zawieszony w nietypowy sposób. Znam wszystkie te obiekty, nie tylko je identyfikuję. Rozumiem także, w jaki sposób są one ze sobą powiązane. Mam wyobrażenia na temat funkcjonowania otaczającego mnie świata. Nie są idealne. Mogą się mylić, ale są całkiem dobrzy. I na ich podstawie wyciągam wiele wniosków, które stają się wytycznymi dla moich codziennych działań.

Drugą skrajnością było coś w rodzaju systemu gier Atari zbudowanego przez DeepMind, w którym zapamiętywał, co należy zrobić, gdy zobaczył piksele w określonych miejscach na ekranie. Jeśli zdobędziesz wystarczającą ilość danych, możesz pomyśleć, że je rozumiesz, ale w rzeczywistości jest to bardzo powierzchowne. Dowodem na to jest to, że jeśli przesuniesz obiekty o trzy piksele, sztuczna inteligencja gra znacznie gorzej. Zmiany go zaskakują. Jest to przeciwieństwo głębokiego zrozumienia.

Aby rozwiązać ten problem, proponujesz powrót do klasycznej sztucznej inteligencji. Z jakich zalet warto spróbować skorzystać?

Jest kilka zalet.

Po pierwsze, klasyczna sztuczna inteligencja jest tak naprawdę szkieletem do tworzenia poznawczych modeli świata, na podstawie których można następnie wyciągać wnioski.

Po drugie, klasyczna sztuczna inteligencja jest doskonale zgodna z zasadami. Obecnie w głębokim uczeniu się panuje dziwny trend, w którym eksperci starają się unikać zasad. Chcą robić wszystko w sieciach neuronowych i nie robić niczego, co wygląda jak klasyczne programowanie. Ale są problemy, które spokojnie rozwiązano w ten sposób i nikt nie zwrócił na to uwagi. Na przykład budowanie tras w Mapach Google.

Tak naprawdę potrzebujemy obu podejść. Uczenie maszynowe dobrze radzi sobie z uczeniem się na danych, ale bardzo słabo radzi sobie z abstrakcją, jaką jest program komputerowy. Klasyczna sztuczna inteligencja dobrze radzi sobie z abstrakcjami, jednak trzeba ją programować w całości ręcznie, a wiedzy na świecie jest za dużo, żeby je wszystkie zaprogramować. Oczywiste jest, że musimy połączyć oba podejścia.

To wiąże się z rozdziałem, w którym mówisz o tym, czego możemy się nauczyć od ludzkiego umysłu. A przede wszystkim o koncepcji opartej na wspomnianej powyżej idei, że nasza świadomość składa się z wielu różnych systemów, które działają na różne sposoby.

Myślę, że można to wyjaśnić innym sposobem: każdy system poznawczy, który mamy, tak naprawdę rozwiązuje inny problem. Podobne części sztucznej inteligencji muszą być zaprojektowane w celu rozwiązywania różnych problemów, które mają różne cechy.

Teraz próbujemy zastosować pewne technologie typu „wszystko w jednym”, aby rozwiązać problemy, które radykalnie się od siebie różnią. Zrozumienie zdania wcale nie jest tym samym, co rozpoznanie przedmiotu. Ale ludzie próbują używać głębokiego uczenia się w obu przypadkach. Z poznawczego punktu widzenia są to zadania jakościowo różne. Jestem po prostu zdumiony, jak mało uznania dla klasycznej sztucznej inteligencji w społeczności zajmującej się głębokim uczeniem się. Po co czekać, aż pojawi się srebrna kula? Jest to nieosiągalne, a bezowocne poszukiwania nie pozwalają ogarnąć pełnej złożoności zadania stworzenia AI.

Wspominasz również, że systemy sztucznej inteligencji są potrzebne do zrozumienia związków przyczynowo-skutkowych. Czy myślisz, że głębokie uczenie się, klasyczna sztuczna inteligencja, czy coś zupełnie nowego nam w tym pomoże?

To kolejny obszar, w którym głębokie uczenie się nie jest dobrze dostosowane. Nie wyjaśnia przyczyn określonych zdarzeń, ale oblicza prawdopodobieństwo wystąpienia zdarzenia w danych warunkach.

O czym gadamy? Obserwujesz pewne scenariusze i rozumiesz, dlaczego tak się dzieje i co może się stać, jeśli ulegną zmianie pewne okoliczności. Mogę patrzeć na stojak, na którym stoi telewizor i wyobrażać sobie, że jeśli odetnę mu jedną z nóżek, stojak się przewróci i telewizor spadnie. Jest to związek przyczynowo-skutkowy.

Klasyczna sztuczna inteligencja daje nam do tego pewne narzędzia. Potrafi sobie na przykład wyobrazić, czym jest wsparcie, a czym upadek. Ale nie będę przechwalać się. Problem w tym, że klasyczna sztuczna inteligencja w dużej mierze opiera się na pełnej informacji o tym, co się dzieje, a ja doszedłem do wniosku po prostu patrząc na stoisko. Mogę w jakiś sposób uogólnić, wyobrazić sobie fragmenty stoiska, których nie widzę. Nie mamy jeszcze narzędzi do wdrożenia tej właściwości.

Mówisz też, że ludzie mają wrodzoną wiedzę. Jak można to zaimplementować w AI?

W chwili narodzin nasz mózg jest już bardzo rozbudowanym systemem. Nie jest to ustalone; natura stworzyła pierwszy, szorstki szkic. A potem uczenie się pomaga nam korygować ten projekt przez całe życie.

Wstępny szkic mózgu ma już pewne możliwości. Nowonarodzona koza górska jest w stanie bezbłędnie zejść ze zbocza góry w ciągu kilku godzin. Jest oczywiste, że ma już wiedzę na temat przestrzeni trójwymiarowej, swojego ciała i relacji między nimi. Bardzo złożony system.

Częściowo dlatego uważam, że potrzebujemy hybryd. Trudno sobie wyobrazić, jak można stworzyć robota, który dobrze funkcjonowałby w świecie, nie wiedząc, od czego zacząć, zamiast zaczynać od czystej karty i uczyć się na podstawie długiego, ogromnego doświadczenia.

Jeśli chodzi o ludzi, nasza wrodzona wiedza pochodzi z genomu, który ewoluował przez długi czas. Jednak w przypadku systemów sztucznej inteligencji będziemy musieli pójść inną drogą. Częścią tego mogą być zasady konstruowania naszych algorytmów. Częścią tego mogą być zasady tworzenia struktur danych, którymi manipulują te algorytmy. Częścią tego może być wiedza, którą bezpośrednio zainwestujemy w maszyny.

Ciekawe, że w książce poruszasz ideę zaufania i tworzenia systemów zaufania. Dlaczego wybrałeś to konkretne kryterium?

Wierzę, że dzisiaj to wszystko jest tylko grą w piłkę. Wydaje mi się, że przeżywamy dziwny moment w historii, ufając wielu programom, które nie są godne zaufania. Myślę, że zmartwienia, które mamy dzisiaj, nie będą trwać wiecznie. Za sto lat sztuczna inteligencja uzasadni nasze zaufanie, a może nawet wcześniej.

Ale dzisiaj sztuczna inteligencja jest niebezpieczna. Nie w tym sensie, jakiego obawia się Elon Musk, ale w tym sensie, że systemy rozmów kwalifikacyjnych dyskryminują kobiety, niezależnie od tego, co robią programiści, ponieważ ich narzędzia są zbyt proste.

Chciałbym, żebyśmy mieli lepszą sztuczną inteligencję. Nie chcę widzieć „zimy sztucznej inteligencji”, podczas której ludzie zorientują się, że sztuczna inteligencja nie działa i jest po prostu niebezpieczna, i nie chcą jej naprawiać.

Pod pewnymi względami Twoja książka wydaje się bardzo optymistyczna. Zakładasz, że możliwe jest zbudowanie godnej zaufania sztucznej inteligencji. Musimy po prostu spojrzeć w innym kierunku.

Zgadza się, książka jest bardzo pesymistyczna na krótką metę i bardzo optymistyczna na dłuższą metę. Wierzymy, że wszystkie opisane przez nas problemy można rozwiązać, patrząc szerzej na to, jakie powinny być prawidłowe odpowiedzi. I myślimy, że jeśli tak się stanie, świat będzie lepszym miejscem.

Źródło: www.habr.com

Dodaj komentarz