Non podemos confiar nos sistemas de IA construídos só sobre a aprendizaxe profunda

Non podemos confiar nos sistemas de IA construídos só sobre a aprendizaxe profunda

Este texto non é o resultado dunha investigación científica, senón unha das moitas opinións sobre o noso inmediato desenvolvemento tecnolóxico. E ao mesmo tempo unha invitación ao debate.

Gary Marcus, profesor da Universidade de Nova York, cre que a aprendizaxe profunda xoga un papel importante no desenvolvemento da IA. Pero tamén cre que un entusiasmo excesivo por esta técnica pode levar ao seu descrédito.

No seu libro Reiniciando a IA: creando intelixencia artificial na que podemos confiar Marcus, un neurocientífico de formación que construíu unha carreira na investigación de IA de vangarda, aborda os aspectos técnicos e éticos. Desde a perspectiva tecnolóxica, a aprendizaxe profunda pode imitar con éxito as tarefas perceptivas que realizan os nosos cerebros, como o recoñecemento de imaxes ou de fala. Pero para outras tarefas, como comprender conversas ou determinar relacións causa-efecto, a aprendizaxe profunda non é adecuada. Para crear máquinas intelixentes máis avanzadas que poidan resolver unha gama máis ampla de problemas, moitas veces chamados intelixencia xeral artificial, a aprendizaxe profunda debe combinarse con outras técnicas.

Se un sistema de IA non entende realmente as súas tarefas ou o mundo que o rodea, isto pode levar a consecuencias perigosas. Mesmo os máis mínimos cambios inesperados no entorno do sistema poden levar a un comportamento erróneo. Xa houbo moitos exemplos deste tipo: determinantes de expresións inadecuadas que son fáciles de enganar; sistemas de busca de emprego que discriminan constantemente; coches sen condutor que chocan e ás veces matan o condutor ou o peón. Crear intelixencia xeral artificial non é só un problema de investigación interesante, ten moitas aplicacións completamente prácticas.

No seu libro, Marcus e o seu coautor Ernest Davis defenden un camiño diferente. Cren que aínda estamos lonxe de crear IA xeral, pero confían en que tarde ou cedo será posible creala.

Por que necesitamos IA xeral? Xa se crearon versións especializadas que aportan moitos beneficios.

É certo, e aínda haberá máis beneficios. Pero hai moitos problemas que a IA especializada simplemente non pode resolver. Por exemplo, a comprensión da fala ordinaria, ou a asistencia xeral no mundo virtual ou un robot que axude a limpar e cociñar. Tales tarefas están máis aló das capacidades da IA ​​especializada. Outra pregunta práctica interesante: é posible crear un coche autónomo seguro usando IA especializada? A experiencia demostra que esa IA aínda ten moitos problemas co comportamento en situacións anormais, mesmo ao conducir, o que complica moito a situación.

Creo que a todos nos gustaría ter unha IA que nos axude a facer novos descubrimentos importantes na medicina. Non está claro se as tecnoloxías actuais son adecuadas para iso, xa que a bioloxía é un campo complexo. Hai que estar preparado para ler moitos libros. Os científicos entenden as relacións causa-efecto na interacción de redes e moléculas, poden desenvolver teorías sobre planetas, etc. Non obstante, cunha IA especializada, non podemos crear máquinas capaces de tales descubrimentos. E coa IA xeral, poderiamos revolucionar a ciencia, a tecnoloxía e a medicina. Na miña opinión, é moi importante seguir traballando para crear IA xeral.

Parece que por "xeral" queres dicir unha IA forte?

Por "xeral" quero dicir que a IA poderá pensar e resolver novos problemas sobre a marcha. A diferenza, por exemplo, de Go, onde o problema non cambiou nos últimos 2000 anos.

A IA xeral debería ser capaz de tomar decisións tanto en política como en medicina. Isto é análogo á capacidade humana; calquera persoa sensata pode facer moito. Levas estudantes sen experiencia e en poucos días tes que traballan en case calquera cousa, desde un problema legal ata un problema médico. Isto débese a que teñen unha comprensión xeral do mundo e saben ler, polo que poden contribuír a unha ampla gama de actividades.

A relación entre esa intelixencia e a intelixencia forte é que unha intelixencia non forte probablemente non será capaz de resolver problemas xerais. Para crear algo o suficientemente robusto como para facer fronte a un mundo en constante cambio, é posible que teñas que achegarte polo menos á intelixencia xeral.

Pero agora estamos moi lonxe disto. AlphaGo pode xogar perfectamente nun taboleiro de 19 x 19, pero ten que ser reciclado para xogar nun taboleiro rectangular. Ou toma o sistema medio de aprendizaxe profunda: pode recoñecer un elefante se está ben iluminado e a súa textura da pel é visible. E se só é visible a silueta dun elefante, probablemente o sistema non poida recoñecelo.

No teu libro mencionas que a aprendizaxe profunda non pode alcanzar as capacidades da IA ​​xeral porque non é capaz de comprender a fondo.

En ciencia cognitiva falan da formación de varios modelos cognitivos. Estou sentado nun cuarto de hotel e entendo que hai un armario, hai unha cama, hai unha televisión que está colgada dun xeito inusual. Coñezo todos estes obxectos, non só os identifico. Tamén entendo como están interconectados entre si. Teño ideas sobre o funcionamento do mundo que me rodea. Non son perfectos. Poden estar equivocados, pero son bastante bos. E en base a elas, saco moitas conclusións que se converten en pautas para as miñas accións diarias.

O outro extremo era algo así como o sistema de xogos Atari construído por DeepMind, no que lembraba o que tiña que facer cando vía píxeles en determinados lugares da pantalla. Se obtén datos suficientes, pode pensar que o entende, pero en realidade é moi superficial. Proba diso é que se moves obxectos tres píxeles, a IA xoga moito peor. Os cambios o desconcertan. Isto é o contrario da comprensión profunda.

Para resolver este problema, propóns volver á IA clásica. Que vantaxes debemos intentar utilizar?

Hai varias vantaxes.

En primeiro lugar, a IA clásica é en realidade un marco para crear modelos cognitivos do mundo, a partir dos cales se poden extraer conclusións.

En segundo lugar, a IA clásica é perfectamente compatible coas regras. Agora mesmo hai unha estraña tendencia na aprendizaxe profunda na que os expertos intentan evitar as regras. Queren facer todo nas redes neuronais e non facer nada que pareza programación clásica. Pero hai problemas que se resolveron con calma deste xeito, e ninguén lle fixo caso. Por exemplo, construír rutas en Google Maps.

De feito, necesitamos ambos enfoques. A aprendizaxe automática é boa para aprender dos datos, pero moi pobre para representar a abstracción que representa un programa informático. A IA clásica funciona ben con abstraccións, pero debe programarse completamente a man e hai demasiado coñecemento no mundo para programalas todas. É evidente que debemos combinar ambos enfoques.

Isto enlázase co capítulo no que falas do que podemos aprender da mente humana. E en primeiro lugar, sobre o concepto baseado na idea mencionada anteriormente de que a nosa conciencia consta de moitos sistemas diferentes que funcionan de diferentes xeitos.

Creo que outra forma de explicar isto é que cada sistema cognitivo que temos realmente resolve un problema diferente. Deben deseñarse partes similares da IA ​​para resolver problemas diferentes que teñan características diferentes.

Agora estamos tentando utilizar algunhas tecnoloxías todo-en-un para resolver problemas que son radicalmente diferentes entre si. Comprender unha oración non é para nada o mesmo que recoñecer un obxecto. Pero a xente está tentando utilizar a aprendizaxe profunda en ambos os casos. Desde o punto de vista cognitivo, trátase de tarefas cualitativamente diferentes. Estou simplemente abraiado co pouco aprecio que hai pola IA clásica na comunidade de aprendizaxe profunda. Por que esperar a que apareza unha bala de prata? É inalcanzable e as procuras infrutuosas non nos permiten comprender toda a complexidade da tarefa de crear IA.

Tamén mencionas que os sistemas de IA son necesarios para comprender as relacións causa-efecto. Cres que a aprendizaxe profunda, a IA clásica ou algo completamente novo nos axudarán con isto?

Esta é outra área onde a aprendizaxe profunda non é moi adecuada. Non explica as causas de certos sucesos, pero calcula a probabilidade dun suceso en determinadas condicións.

De que estamos a falar? Observas certos escenarios e comprendes por que isto ocorre e que podería ocorrer se cambian algunhas circunstancias. Podo mirar o soporte no que está a televisión e imaxinar que se lle corte unha das patas, o soporte envorcarase e a televisión caerá. Esta é unha relación de causa e efecto.

A IA clásica ofrécenos algunhas ferramentas para iso. Pode imaxinar, por exemplo, o que é o apoio e o que é unha caída. Pero non vou loar en exceso. O problema é que a IA clásica depende en gran medida da información completa sobre o que está a suceder, e cheguei a unha conclusión só mirando o stand. Dalgunha maneira podo xeneralizar, imaxinar partes do stand que non son visibles para min. Aínda non temos as ferramentas para implementar esta propiedade.

Tamén dis que a xente ten un coñecemento innato. Como se pode implementar isto na IA?

No momento do nacemento, o noso cerebro é xa un sistema moi elaborado. Non é arranxado, a natureza creou o primeiro borrador. E despois aprender axúdanos a revisar ese borrador ao longo da nosa vida.

Un borrador do cerebro xa ten certas capacidades. Unha cabra montesa recén nacida é capaz de descender infaliblemente a ladeira da montaña en poucas horas. É obvio que xa entende o espazo tridimensional, o seu corpo e a relación entre eles. Un sistema moi complexo.

É por iso que creo que necesitamos híbridos. É difícil imaxinar como se podería crear un robot que funcione ben nun mundo sen coñecementos similares de por onde comezar, en lugar de comezar cunha lousa en branco e aprender dunha longa e ampla experiencia.

En canto aos humanos, o noso coñecemento innato provén do noso xenoma, que evolucionou durante moito tempo. Pero cos sistemas de intelixencia artificial teremos que percorrer un camiño diferente. Parte disto poden ser as regras para construír os nosos algoritmos. Parte disto poden ser as regras para crear as estruturas de datos que manipulan estes algoritmos. E parte disto pode ser o coñecemento de que investiremos directamente en máquinas.

É interesante que no libro saques a idea de confianza e a creación de sistemas de confianza. Por que escolleu este criterio en particular?

Creo que hoxe todo isto é un xogo de pelota. Paréceme que estamos a vivir un momento estraño da historia, confiando en moito software que non é de fiar. Creo que as preocupacións que temos hoxe non durarán para sempre. Dentro de cen anos, a IA xustificará a nosa confianza, e quizais antes.

Pero hoxe a IA é perigosa. Non no sentido que teme Elon Musk, senón no sentido de que os sistemas de entrevistas de traballo discriminan ás mulleres, independentemente do que fagan os programadores, porque as súas ferramentas son demasiado sinxelas.

Gustaríame ter unha IA mellor. Non quero ver un "inverno de IA" onde a xente se dea conta de que a IA non funciona e é simplemente perigosa e non quere solucionalo.

En certo sentido, o teu libro parece moi optimista. Asume que é posible construír unha IA fiable. Só necesitamos mirar noutra dirección.

Así é, o libro é moi pesimista a curto prazo e moi optimista a longo prazo. Cremos que todos os problemas que describimos poden resolverse facendo unha ollada máis ampla a cales deberían ser as respostas correctas. E pensamos que se isto ocorre, o mundo será un lugar mellor.

Fonte: www.habr.com

Engadir un comentario