No podem confiar en sistemes d'IA basats només en l'aprenentatge profund

No podem confiar en sistemes d'IA basats només en l'aprenentatge profund

Aquest text no és el resultat d'una investigació científica, sinó una de moltes opinions sobre el nostre desenvolupament tecnològic immediat. I alhora una invitació a la discussió.

Gary Marcus, professor de la Universitat de Nova York, creu que l'aprenentatge profund té un paper important en el desenvolupament de la IA. Però també creu que un entusiasme excessiu per aquesta tècnica pot portar-ne al descrèdit.

Al seu llibre Reiniciant la IA: creant intel·ligència artificial en la qual podem confiar Marcus, un neurocientífic de formació que ha construït una carrera en recerca d'avantguarda en IA, aborda els aspectes tècnics i ètics. Des d'una perspectiva tecnològica, l'aprenentatge profund pot imitar amb èxit les tasques perceptives que realitzen el nostre cervell, com ara el reconeixement d'imatges o de veu. Però per a altres tasques, com ara entendre converses o determinar relacions causa-efecte, l'aprenentatge profund no és adequat. Per crear màquines intel·ligents més avançades que puguin resoldre una gamma més àmplia de problemes, sovint anomenada intel·ligència general artificial, l'aprenentatge profund s'ha de combinar amb altres tècniques.

Si un sistema d'IA no entén realment les seves tasques o el món que l'envolta, això pot tenir conseqüències perilloses. Fins i tot els més petits canvis inesperats en l'entorn del sistema poden provocar un comportament erroni. Aquests exemples ja n'hi ha hagut molts: determinants d'expressions inadequades que són fàcils d'enganyar; sistemes de recerca de feina que discriminen constantment; cotxes sense conductor que xoquen i de vegades maten el conductor o el vianant. Crear intel·ligència general artificial no és només un problema de recerca interessant, té moltes aplicacions completament pràctiques.

Al seu llibre, Marcus i el seu coautor Ernest Davis defensen un camí diferent. Creuen que encara estem lluny de crear IA general, però confien que tard o d'hora serà possible crear-la.

Per què necessitem una IA general? Ja s'han creat versions especialitzades i aporten molts beneficis.

Així és, i encara hi haurà més beneficis. Però hi ha molts problemes que la IA especialitzada simplement no pot resoldre. Per exemple, la comprensió de la parla normal, o l'assistència general en el món virtual, o un robot que ajuda a netejar i cuinar. Aquestes tasques van més enllà de les capacitats de la IA especialitzada. Una altra pregunta pràctica interessant: és possible crear un cotxe autònom segur amb IA especialitzada? L'experiència demostra que aquesta IA encara té molts problemes de comportament en situacions anormals, fins i tot quan es condueix, cosa que complica molt la situació.

Crec que a tots ens agradaria tenir una IA que ens pugui ajudar a fer nous descobriments importants en medicina. No està clar si les tecnologies actuals són adequades per a això, ja que la biologia és un camp complex. Cal estar preparat per llegir molts llibres. Els científics entenen les relacions causa-efecte en la interacció de xarxes i molècules, poden desenvolupar teories sobre planetes, etc. Tanmateix, amb la IA especialitzada, no podem crear màquines capaços d'aquests descobriments. I amb la IA general, podríem revolucionar la ciència, la tecnologia i la medicina. Al meu entendre, és molt important continuar treballant per crear una IA general.

Sembla que per "general" vols dir una IA forta?

Amb "general" vull dir que la IA serà capaç de pensar i resoldre nous problemes sobre la marxa. A diferència, per exemple, de Go, on el problema no ha canviat durant els últims 2000 anys.

La IA general hauria de ser capaç de prendre decisions tant en política com en medicina. Això és anàleg a la capacitat humana; qualsevol persona sensata pot fer molt. Agafes estudiants sense experiència i en pocs dies els tens treballant en gairebé qualsevol cosa, des d'un problema legal fins a un problema mèdic. Això es deu al fet que tenen una comprensió general del món i saben llegir i, per tant, poden contribuir a un ventall molt ampli d'activitats.

La relació entre aquesta intel·ligència i la intel·ligència forta és que una intel·ligència no forta probablement no serà capaç de resoldre problemes generals. Per crear alguna cosa prou robust per fer front a un món en constant canvi, potser haureu d'apropar-vos almenys a la intel·ligència general.

Però ara estem molt lluny d'això. AlphaGo pot jugar perfectament en un tauler de 19x19, però s'ha de tornar a entrenar per jugar en un tauler rectangular. O pren el sistema d'aprenentatge profund mitjà: pot reconèixer un elefant si està ben il·luminat i la seva textura de pell és visible. I si només es veu la silueta d'un elefant, probablement el sistema no el podrà reconèixer.

Al vostre llibre, esmenteu que l'aprenentatge profund no pot assolir les capacitats de la IA general perquè no és capaç d'una comprensió profunda.

En ciències cognitives parlen de la formació de diversos models cognitius. Estic assegut a una habitació d'hotel i entenc que hi ha un armari, hi ha un llit, hi ha un televisor que està penjat d'una manera inusual. Conec tots aquests objectes, no només els identifico. També entenc com estan interconnectats entre ells. Tinc idees sobre el funcionament del món que m'envolta. No són perfectes. Poden estar equivocats, però són força bons. I a partir d'ells en trec moltes conclusions que es converteixen en pautes per a les meves accions diàries.

L'altre extrem era una cosa així com el sistema de jocs Atari construït per DeepMind, en què recordava què havia de fer quan veia píxels en determinats llocs de la pantalla. Si obteniu prou dades, podeu pensar que en teniu una comprensió, però en realitat és molt superficial. Prova d'això és que si mous objectes tres píxels, la IA juga molt pitjor. Els canvis el desconcertan. Això és el contrari de la comprensió profunda.

Per resoldre aquest problema, proposeu tornar a la IA clàssica. Quins avantatges hem d'intentar utilitzar?

Hi ha diversos avantatges.

En primer lloc, la IA clàssica és en realitat un marc per crear models cognitius del món, a partir dels quals es poden extreure conclusions.

En segon lloc, la IA clàssica és perfectament compatible amb les regles. Hi ha una tendència estranya en l'aprenentatge profund en què els experts intenten evitar les regles. Volen fer-ho tot a les xarxes neuronals i no fer res que sembli programació clàssica. Però hi ha problemes que es van resoldre amb calma d'aquesta manera, i ningú no hi va fer cas. Per exemple, construir rutes a Google Maps.

De fet, necessitem els dos enfocaments. L'aprenentatge automàtic és bo per aprendre de les dades, però molt pobre per representar l'abstracció que és un programa informàtic. La IA clàssica funciona bé amb abstraccions, però s'ha de programar completament a mà i hi ha massa coneixement al món per programar-les totes. És evident que hem de combinar tots dos enfocaments.

Això enllaça amb el capítol en què parles del que podem aprendre de la ment humana. I en primer lloc, sobre el concepte basat en la idea esmentada anteriorment que la nostra consciència consta de molts sistemes diferents que funcionen de diferents maneres.

Crec que una altra manera d'explicar-ho és que cada sistema cognitiu que tenim realment resol un problema diferent. S'han de dissenyar parts similars de la IA per resoldre problemes diferents que tenen característiques diferents.

Ara estem intentant utilitzar algunes tecnologies tot en un per resoldre problemes que són radicalment diferents entre si. Entendre una frase no és gens el mateix que reconèixer un objecte. Però la gent està intentant utilitzar l'aprenentatge profund en ambdós casos. Des del punt de vista cognitiu, es tracta de tasques qualitativament diferents. Simplement em sorprèn la poca apreciació que hi ha per la IA clàssica a la comunitat d'aprenentatge profund. Per què esperar que aparegui una bala de plata? És inassolible, i les cerques infructuoses no ens permeten comprendre tota la complexitat de la tasca de crear IA.

També esmenteu que els sistemes d'IA són necessaris per entendre les relacions causa-efecte. Creus que l'aprenentatge profund, la IA clàssica o alguna cosa completament nova ens ajudaran amb això?

Aquesta és una altra àrea on l'aprenentatge profund no és adequat. No explica les causes de determinats esdeveniments, sinó que calcula la probabilitat d'un esdeveniment en condicions determinades.

De què estem parlant? Observeu determinats escenaris i enteneu per què passa això i què podria passar si canvien algunes circumstàncies. Puc mirar el suport on s'asseu el televisor i m'imagino que si li tallo una de les cames, el suport es bolca i el televisor cau. Aquesta és una relació de causa i efecte.

La IA clàssica ens ofereix algunes eines per a això. Pot imaginar, per exemple, què és el suport i què és una caiguda. Però no exageraré. El problema és que la IA clàssica depèn en gran mesura de la informació completa sobre el que està passant, i vaig arribar a una conclusió només mirant l'estand. Puc generalitzar d'alguna manera, imaginar parts de l'estand que no em són visibles. Encara no tenim les eines per implementar aquesta propietat.

També dius que la gent té un coneixement innat. Com es pot implementar això en IA?

En el moment del naixement, el nostre cervell ja és un sistema molt elaborat. No està fixat; la natura va crear el primer esborrany. I després aprendre ens ajuda a revisar aquest esborrany al llarg de la nostra vida.

Un esborrany del cervell ja té certes capacitats. Una cabra de muntanya acabada de néixer és capaç de baixar infal·liblement el vessant de la muntanya en poques hores. És obvi que ja entén l'espai tridimensional, el seu cos i la relació entre ells. Un sistema molt complex.

En part per això crec que necessitem híbrids. És difícil imaginar com es podria crear un robot que funcioni bé en un món sense coneixements similars d'on començar, en lloc de començar amb una pissarra en blanc i aprendre d'una llarga i vasta experiència.

Pel que fa als humans, el nostre coneixement innat prové del nostre genoma, que ha evolucionat durant molt de temps. Però amb els sistemes d'IA haurem de seguir un camí diferent. Part d'això poden ser les regles per construir els nostres algorismes. Part d'això poden ser les regles per crear les estructures de dades que manipulen aquests algorismes. I part d'això pot ser el coneixement que invertirem directament en màquines.

És interessant que en el llibre plantegeu la idea de confiança i la creació de sistemes de confiança. Per què vas triar aquest criteri en concret?

Crec que avui tot això és un joc de pilota. Em sembla que estem vivint un moment estrany de la història, confiant en molt programari que no és fiable. Crec que les preocupacions que tenim avui no duraran per sempre. D'aquí a cent anys, la IA justificarà la nostra confiança, i potser abans.

Però avui la IA és perillosa. No en el sentit que tem Elon Musk, sinó en el sentit que els sistemes d'entrevistes de feina discriminen les dones, independentment del que facin els programadors, perquè les seves eines són massa senzilles.

Tant de bo tinguéssim una IA millor. No vull veure un "hivern d'IA" on la gent s'adoni que la intel·ligència artificial no funciona i és senzillament perillosa i no vol solucionar-ho.

D'alguna manera, el vostre llibre sembla molt optimista. Suposes que és possible construir una IA fiable. Només hem de mirar en una altra direcció.

Així és, el llibre és molt pessimista a curt termini i molt optimista a llarg termini. Creiem que tots els problemes que hem descrit es poden resoldre fent una mirada més àmplia a quines han de ser les respostes correctes. I pensem que si això passa, el món serà un lloc millor.

Font: www.habr.com

Afegeix comentari