No podemos confiar en los sistemas de inteligencia artificial basados ​​únicamente en el aprendizaje profundo

No podemos confiar en los sistemas de inteligencia artificial basados ​​únicamente en el aprendizaje profundo

Este texto no es resultado de una investigación científica, sino de muchas opiniones sobre nuestro desarrollo tecnológico inmediato. Y al mismo tiempo una invitación al debate.

Gary Marcus, profesor de la Universidad de Nueva York, cree que el aprendizaje profundo juega un papel importante en el desarrollo de la IA. Pero también cree que un entusiasmo excesivo por esta técnica puede llevar a su descrédito.

En su libro Reiniciar la IA: construir una inteligencia artificial en la que podamos confiar Marcus, un neurocientífico de formación que ha desarrollado una carrera en la investigación de IA de vanguardia, aborda los aspectos técnicos y éticos. Desde una perspectiva tecnológica, el aprendizaje profundo puede imitar con éxito las tareas de percepción que realiza nuestro cerebro, como el reconocimiento de imágenes o voz. Pero para otras tareas, como comprender conversaciones o determinar relaciones de causa y efecto, el aprendizaje profundo no es adecuado. Para crear máquinas inteligentes más avanzadas que puedan resolver una gama más amplia de problemas (a menudo llamada inteligencia artificial general), el aprendizaje profundo debe combinarse con otras técnicas.

Si un sistema de IA no comprende realmente sus tareas o el mundo que lo rodea, esto puede tener consecuencias peligrosas. Incluso los más mínimos cambios inesperados en el entorno del sistema pueden provocar un comportamiento erróneo. Ya ha habido muchos ejemplos de este tipo: determinantes de expresiones inapropiadas que son fáciles de engañar; sistemas de búsqueda de empleo que discriminan constantemente; Coches sin conductor que chocan y, a veces, matan al conductor o al peatón. La creación de inteligencia artificial general no es sólo un interesante problema de investigación, sino que tiene muchas aplicaciones completamente prácticas.

En su libro, Marcus y su coautor Ernest Davis abogan por un camino diferente. Creen que todavía estamos lejos de crear una IA generalizada, pero confían en que tarde o temprano será posible crearla.

¿Por qué necesitamos IA general? Ya se han creado versiones especializadas que aportan muchos beneficios.

Así es, y habrá aún más beneficios. Pero hay muchos problemas que la IA especializada simplemente no puede resolver. Por ejemplo, comprender el habla ordinaria, o asistencia general en el mundo virtual, o un robot que ayude con la limpieza y la cocina. Estas tareas están más allá de las capacidades de la IA especializada. Otra pregunta práctica interesante: ¿es posible crear un coche autónomo seguro utilizando IA especializada? La experiencia demuestra que este tipo de IA todavía tiene muchos problemas de comportamiento en situaciones anormales, incluso durante la conducción, lo que complica enormemente la situación.

Creo que a todos nos gustaría tener una IA que pueda ayudarnos a realizar grandes descubrimientos en medicina. No está claro si las tecnologías actuales son adecuadas para ello, ya que la biología es un campo complejo. Debes estar preparado para leer muchos libros. Los científicos comprenden las relaciones de causa y efecto en la interacción de redes y moléculas, pueden desarrollar teorías sobre los planetas, etc. Sin embargo, con IA especializada, no podemos crear máquinas capaces de realizar tales descubrimientos. Y con la IA general, podríamos revolucionar la ciencia, la tecnología y la medicina. En mi opinión, es muy importante seguir trabajando para crear una IA generalizada.

¿Parece que por "general" te refieres a una IA fuerte?

Por "general" me refiero a que la IA podrá pensar y resolver nuevos problemas sobre la marcha. A diferencia de, digamos, Go, donde el problema no ha cambiado en los últimos 2000 años.

La IA general debería poder tomar decisiones tanto en política como en medicina. Esto es análogo a la capacidad humana; Cualquier persona en su sano juicio puede hacer mucho. Tomas estudiantes sin experiencia y en unos pocos días los tienes trabajando en casi cualquier cosa, desde un problema legal hasta un problema médico. Esto se debe a que tienen una comprensión general del mundo y saben leer, por lo que pueden contribuir a una amplia gama de actividades.

La relación entre dicha inteligencia y la inteligencia fuerte es que una inteligencia no fuerte probablemente no podrá resolver problemas generales. Para crear algo lo suficientemente sólido como para hacer frente a un mundo en constante cambio, es posible que necesite al menos acercarse a la inteligencia general.

Pero ahora estamos muy lejos de esto. AlphaGo puede jugar perfectamente en un tablero de 19x19, pero es necesario volver a entrenarlo para jugar en un tablero rectangular. O tomemos el sistema de aprendizaje profundo promedio: puede reconocer un elefante si está bien iluminado y la textura de su piel es visible. Y si sólo se ve la silueta de un elefante, el sistema probablemente no podrá reconocerlo.

En su libro, menciona que el aprendizaje profundo no puede alcanzar las capacidades de la IA general porque no es capaz de una comprensión profunda.

En ciencia cognitiva se habla de la formación de diversos modelos cognitivos. Estoy sentado en una habitación de hotel y me doy cuenta de que hay un armario, una cama, un televisor colgado de una manera inusual. Conozco todos estos objetos, no sólo los identifico. También entiendo cómo están interconectados entre sí. Tengo ideas sobre el funcionamiento del mundo que me rodea. No son perfectos. Quizás se equivoquen, pero son bastante buenos. Y a partir de ellos saco muchas conclusiones que se convierten en pautas para mi actuar diario.

El otro extremo era algo así como el sistema de juego Atari construido por DeepMind, en el que recordaba lo que tenía que hacer cuando veía píxeles en ciertos lugares de la pantalla. Si obtiene suficientes datos, puede pensar que lo comprende, pero en realidad es muy superficial. Prueba de ello es que si mueves los objetos tres píxeles la IA juega mucho peor. Los cambios lo desconciertan. Esto es lo opuesto a una comprensión profunda.

Para resolver este problema, propone volver a la IA clásica. ¿Qué ventajas deberíamos intentar aprovechar?

Hay varias ventajas.

En primer lugar, la IA clásica es en realidad un marco para crear modelos cognitivos del mundo, a partir de los cuales se pueden sacar conclusiones.

En segundo lugar, la IA clásica es perfectamente compatible con las reglas. Actualmente existe una extraña tendencia en el aprendizaje profundo en la que los expertos intentan evitar las reglas. Quieren hacer todo en redes neuronales y no hacer nada que parezca programación clásica. Pero hay problemas que se resolvieron tranquilamente de esta forma y nadie les prestó atención. Por ejemplo, crear rutas en Google Maps.

De hecho, necesitamos ambos enfoques. El aprendizaje automático es bueno para aprender de los datos, pero muy pobre para representar la abstracción que es un programa de computadora. La IA clásica funciona bien con abstracciones, pero debe programarse completamente a mano y hay demasiado conocimiento en el mundo para programarlas todas. Es evidente que necesitamos combinar ambos enfoques.

Esto se relaciona con el capítulo en el que habla sobre lo que podemos aprender de la mente humana. Y en primer lugar, sobre el concepto basado en la idea mencionada anteriormente de que nuestra conciencia se compone de muchos sistemas diferentes que funcionan de diferentes maneras.

Creo que otra forma de explicar esto es que cada sistema cognitivo que tenemos realmente resuelve un problema diferente. Se deben diseñar partes similares de la IA para resolver diferentes problemas que tienen diferentes características.

Ahora estamos intentando utilizar algunas tecnologías todo en uno para resolver problemas que son radicalmente diferentes entre sí. Comprender una frase no es en absoluto lo mismo que reconocer un objeto. Pero la gente está intentando utilizar el aprendizaje profundo en ambos casos. Desde un punto de vista cognitivo, se trata de tareas cualitativamente diferentes. Simplemente me sorprende el poco aprecio que existe por la IA clásica en la comunidad de aprendizaje profundo. ¿Por qué esperar a que aparezca una solución milagrosa? Es inalcanzable y las búsquedas infructuosas no nos permiten comprender toda la complejidad de la tarea de crear IA.

También menciona que se necesitan sistemas de inteligencia artificial para comprender las relaciones de causa y efecto. ¿Crees que el aprendizaje profundo, la IA clásica o algo completamente nuevo nos ayudará con esto?

Ésta es otra área en la que el aprendizaje profundo no es adecuado. No explica las causas de ciertos eventos, pero calcula la probabilidad de que ocurra un evento en determinadas condiciones.

¿De qué estamos hablando? Observas ciertos escenarios y comprendes por qué sucede esto y qué podría suceder si algunas circunstancias cambian. Puedo mirar el soporte sobre el que se encuentra el televisor e imaginar que si corto una de sus patas, el soporte se volcará y el televisor caerá. Esta es una relación de causa y efecto.

La IA clásica nos brinda algunas herramientas para esto. Puede imaginar, por ejemplo, qué es un apoyo y qué es una caída. Pero no lo elogiaré demasiado. El problema es que la IA clásica depende en gran medida de información completa sobre lo que está sucediendo, y llegué a una conclusión con solo mirar el stand. De alguna manera puedo generalizar, imaginar partes del stand que no son visibles para mí. Todavía no tenemos las herramientas para implementar esta propiedad.

También dices que las personas tienen conocimientos innatos. ¿Cómo se puede implementar esto en la IA?

En el momento del nacimiento, nuestro cerebro ya es un sistema muy elaborado. No es fijo; la naturaleza creó el primer borrador. Y luego el aprendizaje nos ayuda a revisar ese borrador a lo largo de nuestra vida.

Un borrador del cerebro ya tiene ciertas capacidades. Una cabra montés recién nacida es capaz de descender infaliblemente la ladera de la montaña en unas pocas horas. Es obvio que ya comprende el espacio tridimensional, su cuerpo y la relación entre ellos. Un sistema muy complejo.

En parte, por eso creo que necesitamos híbridos. Es difícil imaginar cómo se podría crear un robot que funcione bien en un mundo sin un conocimiento similar sobre por dónde empezar, en lugar de empezar con una pizarra en blanco y aprender de una larga y vasta experiencia.

En cuanto a los humanos, nuestro conocimiento innato proviene de nuestro genoma, que ha evolucionado durante mucho tiempo. Pero con los sistemas de IA tendremos que tomar un camino diferente. Parte de esto pueden ser las reglas para construir nuestros algoritmos. Parte de esto pueden ser las reglas para crear las estructuras de datos que manipulan estos algoritmos. Y parte de esto puede ser el conocimiento de que invertiremos directamente en máquinas.

Es interesante que en el libro menciones la idea de confianza y la creación de sistemas de confianza. ¿Por qué elegiste este criterio en particular?

Creo que hoy todo esto es un juego de pelota. Me parece que estamos viviendo un momento extraño en la historia, confiando en mucho software que no es digno de confianza. Creo que las preocupaciones que tenemos hoy no durarán para siempre. Dentro de cien años, la IA justificará nuestra confianza, y tal vez antes.

Pero hoy la IA es peligrosa. No en el sentido que teme Elon Musk, sino en el sentido de que los sistemas de entrevistas de trabajo discriminan a las mujeres, independientemente de lo que hagan los programadores, porque sus herramientas son demasiado simples.

Ojalá tuviéramos una mejor IA. No quiero ver un “invierno de la IA” en el que la gente se dé cuenta de que la IA no funciona y es sencillamente peligrosa y no quiera arreglarla.

En cierto modo, su libro parece muy optimista. Se supone que es posible construir una IA confiable. Sólo tenemos que mirar en una dirección diferente.

Así es, el libro es muy pesimista a corto plazo y muy optimista a largo plazo. Creemos que todos los problemas que hemos descrito se pueden resolver analizando más ampliamente cuáles deberían ser las respuestas correctas. Y pensamos que si esto sucede, el mundo será un lugar mejor.

Fuente: habr.com

Añadir un comentario