Não podemos confiar em sistemas de IA construídos apenas com base no aprendizado profundo

Não podemos confiar em sistemas de IA construídos apenas com base no aprendizado profundo

Este texto não é o resultado de pesquisas científicas, mas uma das muitas opiniões a respeito do nosso desenvolvimento tecnológico imediato. E ao mesmo tempo um convite à discussão.

Gary Marcus, professor da Universidade de Nova York, acredita que o aprendizado profundo desempenha um papel importante no desenvolvimento da IA. Mas ele também acredita que o entusiasmo excessivo por esta técnica pode levar ao seu descrédito.

No livro dele Reiniciando a IA: Construindo inteligência artificial em que podemos confiar Marcus, neurocientista de formação que construiu uma carreira com base em pesquisas de ponta em IA, aborda os aspectos técnicos e éticos. Do ponto de vista tecnológico, a aprendizagem profunda pode imitar com sucesso as tarefas perceptivas que nossos cérebros realizam, como reconhecimento de imagem ou fala. Mas para outras tarefas, como compreender conversas ou determinar relações de causa e efeito, o aprendizado profundo não é adequado. Para criar máquinas inteligentes mais avançadas que possam resolver uma gama mais ampla de problemas – muitas vezes chamada de inteligência artificial geral – o aprendizado profundo precisa ser combinado com outras técnicas.

Se um sistema de IA não compreender verdadeiramente as suas tarefas ou o mundo que o rodeia, isso pode levar a consequências perigosas. Mesmo as menores alterações inesperadas no ambiente do sistema podem levar a um comportamento errôneo. Já houve muitos exemplos desse tipo: determinantes de expressões inadequadas que são fáceis de enganar; sistemas de procura de emprego que discriminam consistentemente; carros sem motorista que batem e às vezes matam o motorista ou pedestre. A criação de inteligência artificial geral não é apenas um problema de pesquisa interessante, mas tem muitas aplicações totalmente práticas.

Em seu livro, Marcus e seu coautor Ernest Davis defendem um caminho diferente. Eles acreditam que ainda estamos longe de criar uma IA geral, mas estão confiantes de que mais cedo ou mais tarde será possível criá-la.

Por que precisamos de IA geral? Versões especializadas já foram criadas e trazem muitos benefícios.

Isso mesmo, e haverá ainda mais benefícios. Mas há muitos problemas que a IA especializada simplesmente não consegue resolver. Por exemplo, compreensão da fala comum, ou assistência geral no mundo virtual, ou um robô que ajuda na limpeza e na cozinha. Tais tarefas estão além das capacidades da IA ​​especializada. Outra questão prática interessante: é possível criar um carro autônomo seguro usando IA especializada? A experiência mostra que tal IA ainda apresenta muitos problemas de comportamento em situações anormais, mesmo durante a condução, o que complica muito a situação.

Acho que todos gostaríamos de ter uma IA que pudesse nos ajudar a fazer grandes novas descobertas na medicina. Não está claro se as tecnologias atuais são adequadas para isso, uma vez que a biologia é um campo complexo. Você precisa estar preparado para ler muitos livros. Os cientistas compreendem as relações de causa e efeito na interação de redes e moléculas, podem desenvolver teorias sobre planetas e assim por diante. Contudo, com IA especializada, não podemos criar máquinas capazes de tais descobertas. E com a IA geral, poderíamos revolucionar a ciência, a tecnologia e a medicina. Na minha opinião, é muito importante continuar a trabalhar no sentido da criação de uma IA geral.

Parece que por “geral” você quer dizer IA forte?

Por “geral” quero dizer que a IA será capaz de pensar e resolver novos problemas rapidamente. Ao contrário, digamos, de Go, onde o problema não mudou nos últimos 2000 anos.

A IA geral deve ser capaz de tomar decisões tanto na política como na medicina. Isto é análogo à capacidade humana; qualquer pessoa sã pode fazer muito. Você pega estudantes inexperientes e em poucos dias eles trabalham em quase tudo, desde um problema jurídico até um problema médico. Isso ocorre porque eles têm uma compreensão geral do mundo e sabem ler, podendo, portanto, contribuir para uma ampla gama de atividades.

A relação entre essa inteligência e a inteligência forte é que uma inteligência não forte provavelmente não será capaz de resolver problemas gerais. Para criar algo robusto o suficiente para lidar com um mundo em constante mudança, talvez seja necessário pelo menos abordar a inteligência geral.

Mas agora estamos muito longe disso. AlphaGo pode jogar perfeitamente bem em um tabuleiro 19x19, mas precisa ser treinado novamente para jogar em um tabuleiro retangular. Ou tomemos como exemplo o sistema médio de aprendizagem profunda: ele pode reconhecer um elefante se ele estiver bem iluminado e se a textura da sua pele for visível. E se apenas a silhueta de um elefante estiver visível, o sistema provavelmente não será capaz de reconhecê-lo.

Em seu livro, você menciona que o aprendizado profundo não pode atingir as capacidades da IA ​​geral porque não é capaz de um entendimento profundo.

Na ciência cognitiva fala-se sobre a formação de vários modelos cognitivos. Estou sentado em um quarto de hotel e entendo que tem um armário, tem uma cama, tem uma TV pendurada de uma forma inusitada. Conheço todos esses objetos, não apenas os identifico. Também entendo como eles estão interligados. Tenho ideias sobre o funcionamento do mundo ao meu redor. Eles não são perfeitos. Eles podem estar errados, mas são muito bons. E com base nelas tiro muitas conclusões que se tornam diretrizes para minhas ações diárias.

O outro extremo era algo como o sistema de jogo Atari construído pela DeepMind, no qual lembrava o que precisava fazer quando via pixels em determinados lugares da tela. Se você obtiver dados suficientes, poderá pensar que entendeu, mas na realidade é muito superficial. Prova disso é que se você mover objetos em três pixels, a IA joga muito pior. As mudanças o confundem. Isto é o oposto da compreensão profunda.

Para resolver este problema, você propõe retornar à IA clássica. Que vantagens devemos tentar usar?

Existem várias vantagens.

Primeiro, a IA clássica é na verdade uma estrutura para a criação de modelos cognitivos do mundo, com base nos quais conclusões podem ser tiradas.

Em segundo lugar, a IA clássica é perfeitamente compatível com as regras. Há uma tendência estranha no aprendizado profundo no momento, onde os especialistas estão tentando evitar regras. Eles querem fazer tudo em redes neurais e não fazer nada que se pareça com programação clássica. Mas há problemas que foram resolvidos desta forma com calma e ninguém prestou atenção a isso. Por exemplo, construindo rotas no Google Maps.

Na verdade, precisamos de ambas as abordagens. O aprendizado de máquina é bom para aprender a partir de dados, mas é muito ruim para representar a abstração que é um programa de computador. A IA clássica funciona bem com abstrações, mas deve ser programada inteiramente à mão, e há muito conhecimento no mundo para programar todas elas. É evidente que precisamos combinar as duas abordagens.

Isso está relacionado ao capítulo em que você fala sobre o que podemos aprender com a mente humana. E antes de mais nada, sobre o conceito baseado na ideia mencionada acima de que nossa consciência consiste em muitos sistemas diferentes que funcionam de maneiras diferentes.

Acho que outra maneira de explicar isso é que cada sistema cognitivo que temos realmente resolve um problema diferente. Partes semelhantes da IA ​​devem ser projetadas para resolver problemas diferentes com características diferentes.

Agora estamos tentando usar algumas tecnologias multifuncionais para resolver problemas que são radicalmente diferentes uns dos outros. Compreender uma frase não é o mesmo que reconhecer um objeto. Mas as pessoas estão tentando usar o aprendizado profundo em ambos os casos. Do ponto de vista cognitivo, estas são tarefas qualitativamente diferentes. Estou simplesmente surpreso com o pouco apreço pela IA clássica na comunidade de aprendizagem profunda. Por que esperar que apareça uma solução mágica? É inatingível e as pesquisas infrutíferas não nos permitem compreender toda a complexidade da tarefa de criar IA.

Você também mencionou que os sistemas de IA são necessários para compreender as relações de causa e efeito. Você acha que o aprendizado profundo, a IA clássica ou algo completamente novo nos ajudará nisso?

Esta é outra área onde o aprendizado profundo não é adequado. Não explica as causas de certos eventos, mas calcula a probabilidade de um evento sob determinadas condições.

Sobre o que estamos conversando? Você observa certos cenários e entende por que isso acontece e o que poderia acontecer se algumas circunstâncias mudassem. Posso olhar para o suporte onde está a TV e imaginar que se eu cortar uma das pernas, o suporte tombará e a TV cairá. Esta é uma relação de causa e efeito.

A IA clássica nos dá algumas ferramentas para isso. Ele pode imaginar, por exemplo, o que é um apoio e o que é uma queda. Mas não vou elogiar demais. O problema é que a IA clássica depende muito de informações completas sobre o que está acontecendo, e cheguei a uma conclusão apenas olhando para o estande. Posso de alguma forma generalizar, imaginar partes do estande que não são visíveis para mim. Ainda não temos as ferramentas para implementar esta propriedade.

Você também diz que as pessoas têm conhecimento inato. Como isso pode ser implementado na IA?

No momento do nascimento, nosso cérebro já é um sistema muito elaborado. Não é fixo; a natureza criou o primeiro rascunho. E então a aprendizagem nos ajuda a revisar esse rascunho ao longo de nossas vidas.

Um rascunho do cérebro já possui certas capacidades. Uma cabra montesa recém-nascida é capaz de descer infalivelmente a encosta da montanha em poucas horas. É óbvio que ele já tem uma compreensão do espaço tridimensional, do seu corpo e da relação entre eles. Um sistema muito complexo.

É em parte por isso que acredito que precisamos de híbridos. É difícil imaginar como alguém poderia criar um robô que funcionasse bem em um mundo sem conhecimento semelhante sobre por onde começar, em vez de começar do zero e aprender com uma longa e vasta experiência.

Quanto aos humanos, o nosso conhecimento inato vem do nosso genoma, que evoluiu ao longo do tempo. Mas com os sistemas de IA teremos que seguir um caminho diferente. Parte disso podem ser as regras para a construção de nossos algoritmos. Parte disso podem ser as regras para a criação das estruturas de dados que esses algoritmos manipulam. E parte disso pode ser o conhecimento de que investiremos diretamente em máquinas.

É interessante que no livro você traga a ideia de confiança e de criação de sistemas de confiança. Por que você escolheu esse critério específico?

Acredito que hoje tudo isso é um jogo de bola. Parece-me que vivemos um momento estranho na história, confiando em muitos softwares que não são confiáveis. Acho que as preocupações que temos hoje não durarão para sempre. Dentro de cem anos, a IA justificará a nossa confiança, e talvez antes.

Mas hoje a IA é perigosa. Não no sentido que Elon Musk teme, mas no sentido de que os sistemas de entrevistas de emprego discriminam as mulheres, independentemente do que os programadores façam, porque as suas ferramentas são demasiado simples.

Eu gostaria que tivéssemos uma IA melhor. Não quero ver um “inverno da IA”, onde as pessoas percebam que a IA não funciona e é simplesmente perigosa e não queiram consertar isso.

De certa forma, seu livro parece muito otimista. Você presume que é possível construir uma IA confiável. Só precisamos olhar em uma direção diferente.

Isso mesmo, o livro é muito pessimista no curto prazo e muito otimista no longo prazo. Acreditamos que todos os problemas que descrevemos podem ser resolvidos através de uma análise mais ampla de quais deveriam ser as respostas corretas. E pensamos que se isso acontecer, o mundo será um lugar melhor.

Fonte: habr.com

Adicionar um comentário