Nu putem avea încredere în sistemele AI construite numai pe baza învățării profunde

Nu putem avea încredere în sistemele AI construite numai pe baza învățării profunde

Acest text nu este rezultatul cercetării științifice, ci una dintre multele opinii cu privire la dezvoltarea noastră tehnologică imediată. Și în același timp o invitație la discuții.

Gary Marcus, profesor la Universitatea din New York, consideră că învățarea profundă joacă un rol important în dezvoltarea inteligenței artificiale. Dar, de asemenea, crede că entuziasmul excesiv pentru această tehnică poate duce la discreditarea acesteia.

În cartea sa Repornirea inteligenței artificiale: construirea de inteligență artificială în care putem avea încredere Marcus, un neuroștiință de formare care și-a construit o carieră în cercetarea de ultimă oră AI, abordează aspectele tehnice și etice. Din perspectiva tehnologiei, învățarea profundă poate imita cu succes sarcinile perceptuale pe care le îndeplinește creierul nostru, cum ar fi recunoașterea imaginii sau a vorbirii. Dar pentru alte sarcini, cum ar fi înțelegerea conversațiilor sau determinarea relațiilor cauză-efect, învățarea profundă nu este potrivită. Pentru a crea mașini inteligente mai avansate care pot rezolva o gamă mai largă de probleme – adesea numite inteligență generală artificială – învățarea profundă trebuie combinată cu alte tehnici.

Dacă un sistem AI nu își înțelege cu adevărat sarcinile sau lumea din jurul lui, acest lucru poate duce la consecințe periculoase. Chiar și cele mai mici modificări neașteptate în mediul sistemului pot duce la un comportament eronat. Au existat deja multe astfel de exemple: determinanți ai expresiilor nepotrivite care sunt ușor de înșelat; sisteme de căutare a unui loc de muncă care discriminează constant; mașini fără șofer care se prăbușesc și uneori ucid șoferul sau pietonul. Crearea inteligenței generale artificiale nu este doar o problemă de cercetare interesantă, ci are multe aplicații complet practice.

În cartea lor, Marcus și co-autorul său Ernest Davis pledează pentru o cale diferită. Ei cred că suntem încă departe de a crea IA generală, dar sunt încrezători că mai devreme sau mai târziu va fi posibil să o creăm.

De ce avem nevoie de IA generală? Au fost deja create versiuni specializate și aduc o mulțime de beneficii.

Așa este și vor exista și mai multe beneficii. Dar există multe probleme pe care AI specializată pur și simplu nu le poate rezolva. De exemplu, înțelegerea vorbirii obișnuite sau asistența generală în lumea virtuală sau un robot care ajută la curățare și gătit. Astfel de sarcini depășesc capacitățile AI specializate. O altă întrebare practică interesantă: este posibil să se creeze o mașină autonomă sigură folosind AI specializată? Experiența arată că o astfel de IA are încă multe probleme cu comportamentul în situații anormale, chiar și la volan, ceea ce complică foarte mult situația.

Cred că toți ne-ar plăcea să avem AI care ne poate ajuta să facem noi descoperiri mari în medicină. Nu este clar dacă tehnologiile actuale sunt potrivite pentru acest lucru, deoarece biologia este un domeniu complex. Trebuie să fii pregătit să citești o mulțime de cărți. Oamenii de știință înțeleg relațiile cauză-efect în interacțiunea rețelelor și moleculelor, pot dezvolta teorii despre planete și așa mai departe. Cu toate acestea, cu IA specializată, nu putem crea mașini capabile de astfel de descoperiri. Și cu inteligența artificială generală, am putea revoluționa știința, tehnologia și medicina. În opinia mea, este foarte important să continuăm să lucrăm pentru crearea IA generală.

Se pare că prin „general” te referi la IA puternică?

Prin „general” mă refer la faptul că AI va putea să se gândească și să rezolve noi probleme din mers. Spre deosebire de, să zicem, Go, unde problema nu s-a schimbat în ultimii 2000 de ani.

IA generală ar trebui să poată lua decizii atât în ​​politică, cât și în medicină. Acest lucru este analog cu capacitatea umană; orice persoană sănătoasă poate face multe. Luați studenți fără experiență și în câteva zile îi puneți să lucreze la aproape orice, de la o problemă juridică la o problemă medicală. Acest lucru se datorează faptului că au o înțelegere generală a lumii și pot citi și, prin urmare, pot contribui la o gamă foarte largă de activități.

Relația dintre o astfel de inteligență și inteligența puternică este că o inteligență neputernică probabil nu va fi capabilă să rezolve probleme generale. Pentru a crea ceva suficient de robust pentru a face față unei lumi în continuă schimbare, poate fi necesar să abordezi cel puțin inteligența generală.

Dar acum suntem foarte departe de asta. AlphaGo poate juca perfect pe o tablă 19x19, dar trebuie reantrenat pentru a juca pe o tablă dreptunghiulară. Sau luați sistemul mediu de învățare profundă: poate recunoaște un elefant dacă este bine luminat și textura pielii este vizibilă. Și dacă doar silueta unui elefant este vizibilă, sistemul probabil că nu o va putea recunoaște.

În cartea dvs., menționați că învățarea profundă nu poate atinge capacitățile IA generală, deoarece nu este capabilă de înțelegere profundă.

În știința cognitivă se vorbește despre formarea diferitelor modele cognitive. Stau într-o cameră de hotel și înțeleg că există un dulap, există un pat, există un televizor care este agățat într-un mod neobișnuit. Cunosc toate aceste obiecte, nu doar le identific. Înțeleg, de asemenea, cum sunt interconectați unul cu celălalt. Am idei despre funcționarea lumii din jurul meu. Nu sunt perfecti. S-ar putea să greșească, dar sunt destul de bune. Și pe baza lor, trag o mulțime de concluzii care devin linii directoare pentru acțiunile mele zilnice.

Cealaltă extremă a fost ceva de genul sistemului de joc Atari construit de DeepMind, în care își amintea ce trebuie să facă atunci când vedea pixeli în anumite locuri de pe ecran. Dacă obțineți suficiente date, puteți crede că aveți o înțelegere, dar în realitate este foarte superficial. Dovada în acest sens este că, dacă mutați obiecte cu trei pixeli, AI ​​se joacă mult mai rău. Schimbările îl deranjează. Acesta este opusul înțelegerii profunde.

Pentru a rezolva această problemă, propuneți revenirea la IA clasică. Ce avantaje ar trebui să încercăm să folosim?

Există mai multe avantaje.

În primul rând, IA clasică este de fapt un cadru pentru crearea modelelor cognitive ale lumii, pe baza cărora se pot trage apoi concluzii.

În al doilea rând, IA clasică este perfect compatibilă cu regulile. Există o tendință ciudată în învățarea profundă chiar acum, în care experții încearcă să evite regulile. Ei vor să facă totul în rețelele neuronale și să nu facă nimic care să semene cu programarea clasică. Dar există probleme care au fost rezolvate cu calm în acest fel și nimeni nu i-a acordat atenție. De exemplu, construirea de rute în Google Maps.

De fapt, avem nevoie de ambele abordări. Învățarea automată este bună la învățarea din date, dar foarte slabă la reprezentarea abstracției care este un program de calculator. AI clasică funcționează bine cu abstracțiile, dar trebuie programată în întregime manual și există prea multe cunoștințe în lume pentru a le programa pe toate. În mod evident, trebuie să combinăm ambele abordări.

Acest lucru se leagă de capitolul în care vorbiți despre ceea ce putem învăța de la mintea umană. Și în primul rând, despre conceptul bazat pe ideea menționată mai sus că conștiința noastră este formată din multe sisteme diferite care funcționează în moduri diferite.

Cred că o altă modalitate de a explica acest lucru este că fiecare sistem cognitiv pe care îl avem rezolvă cu adevărat o problemă diferită. Părți similare ale IA trebuie proiectate pentru a rezolva diferite probleme care au caracteristici diferite.

Acum încercăm să folosim câteva tehnologii all-in-one pentru a rezolva probleme care sunt radical diferite unele de altele. Înțelegerea unei propoziții nu este deloc același lucru cu recunoașterea unui obiect. Dar oamenii încearcă să folosească învățarea profundă în ambele cazuri. Din punct de vedere cognitiv, acestea sunt sarcini diferite calitativ. Sunt pur și simplu uimit de cât de puțină apreciere există pentru IA clasică în comunitatea de deep learning. De ce să aștepți să apară un glonț de argint? Este de neatins, iar căutările inutile nu ne permit să înțelegem întreaga complexitate a sarcinii de a crea AI.

De asemenea, menționați că sistemele AI sunt necesare pentru a înțelege relațiile cauză-efect. Crezi că învățarea profundă, IA clasică sau ceva complet nou ne vor ajuta în acest sens?

Acesta este un alt domeniu în care învățarea profundă nu este potrivită. Nu explică cauzele anumitor evenimente, ci calculează probabilitatea unui eveniment în condiții date.

Despre ce vorbim? Urmărește anumite scenarii și înțelegi de ce se întâmplă acest lucru și ce s-ar putea întâmpla dacă unele circumstanțe se schimbă. Pot să mă uit la suportul pe care stă televizorul și să-mi imaginez că dacă îi tai unul dintre picioare, suportul se va răsturna și televizorul va cădea. Aceasta este o relație cauză-efect.

AI clasică ne oferă câteva instrumente pentru aceasta. Își poate imagina, de exemplu, ce este sprijinul și ce este o cădere. Dar nu voi lauda prea mult. Problema este că IA clasică depinde în mare măsură de informații complete despre ceea ce se întâmplă și am ajuns la o concluzie doar uitându-mă la stand. Îmi pot generaliza cumva, îmi imaginez părți ale standului care nu îmi sunt vizibile. Încă nu avem instrumentele pentru a implementa această proprietate.

Mai spui că oamenii au cunoștințe înnăscute. Cum poate fi implementat acest lucru în AI?

În momentul nașterii, creierul nostru este deja un sistem foarte elaborat. Nu este fix; natura a creat primul proiect. Și apoi învățarea ne ajută să revizuim această schiță de-a lungul vieții.

O ciornă brută a creierului are deja anumite capacități. O capră de munte nou-născută este capabilă să coboare fără greșeală pe coasta muntelui în câteva ore. Este evident că el are deja o înțelegere a spațiului tridimensional, a corpului său și a relației dintre ele. Un sistem foarte complex.

Acesta este, parțial, motivul pentru care cred că avem nevoie de hibrizi. Este dificil de imaginat cum s-ar putea crea un robot care să funcționeze bine într-o lume fără cunoștințe similare despre unde să înceapă, mai degrabă decât să începi cu o tavă goală și să înveți din experiență lungă și vastă.

În ceea ce privește oamenii, cunoștințele noastre înnăscute provin din genomul nostru, care a evoluat de-a lungul timpului. Dar cu sistemele AI va trebui să mergem pe o altă cale. O parte din aceasta poate fi regulile pentru construirea algoritmilor noștri. O parte din aceasta poate fi regulile pentru crearea structurilor de date pe care acești algoritmi le manipulează. Și o parte din aceasta poate fi cunoștințele că vom investi direct în mașini.

Este interesant că în carte aduci în discuție ideea de încredere și crearea de sisteme de încredere. De ce ați ales acest criteriu special?

Cred că astăzi toate acestea sunt un joc cu mingea. Mi se pare că trăim un moment ciudat din istorie, având încredere într-o mulțime de software care nu sunt de încredere. Cred că grijile pe care le avem astăzi nu vor dura pentru totdeauna. Peste o sută de ani, AI ne va justifica încrederea și poate chiar mai devreme.

Dar astăzi AI este periculoasă. Nu în sensul de care se teme Elon Musk, ci în sensul că sistemele de interviuri de angajare discriminează femeile, indiferent de ceea ce fac programatorii, pentru că instrumentele lor sunt prea simple.

Mi-aș dori să avem un AI mai bun. Nu vreau să văd o „iarnă AI” în care oamenii își dau seama că AI nu funcționează și este pur și simplu periculoasă și nu doresc să o repare.

Într-un fel, cartea ta pare foarte optimistă. Presupuneți că este posibil să construiți AI de încredere. Trebuie doar să privim într-o altă direcție.

Așa e, cartea este foarte pesimistă pe termen scurt și foarte optimistă pe termen lung. Credem că toate problemele pe care le-am descris pot fi rezolvate printr-o privire mai amplă la care ar trebui să fie răspunsurile corecte. Și credem că dacă se va întâmpla acest lucru, lumea va fi un loc mai bun.

Sursa: www.habr.com

Adauga un comentariu