Nous ne pouvons pas faire confiance aux systèmes d'IA construits uniquement sur le Deep Learning

Nous ne pouvons pas faire confiance aux systèmes d'IA construits uniquement sur le Deep Learning

Ce texte n’est pas le résultat d’une recherche scientifique, mais l’une des nombreuses opinions concernant notre développement technologique immédiat. Et en même temps une invitation à la discussion.

Gary Marcus, professeur à l'Université de New York, estime que l'apprentissage profond joue un rôle important dans le développement de l'IA. Mais il estime aussi qu’un enthousiasme excessif pour cette technique peut conduire à son discrédit.

Dans son livre Redémarrer l’IA : construire une intelligence artificielle à laquelle nous pouvons faire confiance Marcus, neuroscientifique de formation qui a bâti sa carrière dans la recherche de pointe en IA, aborde les aspects techniques et éthiques. D’un point de vue technologique, l’apprentissage profond peut imiter avec succès les tâches de perception effectuées par notre cerveau, comme la reconnaissance d’images ou de parole. Mais pour d’autres tâches, comme comprendre des conversations ou déterminer des relations de cause à effet, l’apprentissage profond n’est pas adapté. Pour créer des machines intelligentes plus avancées capables de résoudre un plus large éventail de problèmes (souvent appelés intelligence artificielle générale), l’apprentissage profond doit être combiné à d’autres techniques.

Si un système d’IA ne comprend pas réellement ses tâches ou le monde qui l’entoure, cela peut avoir des conséquences dangereuses. Même les moindres changements inattendus dans l’environnement du système peuvent entraîner un comportement erroné. De tels exemples ont déjà été nombreux : déterminants d'expressions inappropriées et faciles à tromper ; des systèmes de recherche d'emploi qui font systématiquement une discrimination ; des voitures sans conducteur qui s'écrasent et tuent parfois le conducteur ou le piéton. La création d’une intelligence artificielle générale n’est pas seulement un problème de recherche intéressant, elle a de nombreuses applications tout à fait pratiques.

Dans leur livre, Marcus et son co-auteur Ernest Davis plaident en faveur d’une voie différente. Ils estiment que nous sommes encore loin de créer une IA générale, mais ils sont convaincus que tôt ou tard, il sera possible de la créer.

Pourquoi avons-nous besoin d’une IA générale ? Des versions spécialisées ont déjà été créées et apportent de nombreux avantages.

C’est vrai, et il y aura encore plus d’avantages. Mais il existe de nombreux problèmes que l’IA spécialisée ne peut tout simplement pas résoudre. Par exemple, comprendre un discours ordinaire, ou une assistance générale dans le monde virtuel, ou un robot qui aide au nettoyage et à la cuisine. De telles tâches dépassent les capacités de l’IA spécialisée. Autre question pratique intéressante : est-il possible de créer une voiture autonome et sûre à l’aide d’une IA spécialisée ? L'expérience montre qu'une telle IA présente encore de nombreux problèmes de comportement dans des situations anormales, même au volant, ce qui complique grandement la situation.

Je pense que nous aimerions tous disposer d’une IA qui puisse nous aider à faire de grandes découvertes en médecine. Il n’est pas certain que les technologies actuelles soient adaptées à cela, car la biologie est un domaine complexe. Vous devez être prêt à lire beaucoup de livres. Les scientifiques comprennent les relations de cause à effet dans l’interaction des réseaux et des molécules, peuvent développer des théories sur les planètes, etc. Cependant, avec une IA spécialisée, nous ne pouvons pas créer des machines capables de telles découvertes. Et avec l’IA généralisée, nous pourrions révolutionner la science, la technologie et la médecine. À mon avis, il est très important de continuer à travailler à la création d’une IA générale.

On dirait que par « général », vous entendez une IA forte ?

Par « général », j’entends que l’IA sera capable de réfléchir et de résoudre de nouveaux problèmes à la volée. Contrairement, par exemple, à Go, où le problème n'a pas changé au cours des 2000 dernières années.

L’IA générale devrait être capable de prendre des décisions à la fois en politique et en médecine. Ceci est analogue à la capacité humaine ; toute personne sensée peut faire beaucoup. Vous prenez des étudiants inexpérimentés et, en quelques jours, vous les faites travailler sur presque n'importe quoi, d'un problème juridique à un problème médical. En effet, ils ont une compréhension générale du monde et savent lire, et peuvent donc contribuer à un très large éventail d'activités.

La relation entre une telle intelligence et une intelligence forte est qu’une intelligence non forte ne sera probablement pas capable de résoudre des problèmes généraux. Pour créer quelque chose d’assez robuste pour faire face à un monde en constante évolution, vous devrez peut-être au moins vous rapprocher de l’intelligence générale.

Mais nous en sommes désormais très loin. AlphaGo peut parfaitement jouer sur un plateau 19x19, mais il doit être recyclé pour jouer sur un plateau rectangulaire. Ou prenez le système d’apprentissage profond moyen : il peut reconnaître un éléphant s’il est bien éclairé et si sa texture de peau est visible. Et si seule la silhouette d’un éléphant est visible, le système ne pourra probablement pas le reconnaître.

Dans votre livre, vous mentionnez que l’apprentissage profond ne peut pas atteindre les capacités de l’IA générale car il n’est pas capable d’une compréhension approfondie.

En sciences cognitives, on parle de la formation de divers modèles cognitifs. Je suis assis dans une chambre d’hôtel et je comprends qu’il y a un placard, il y a un lit, il y a une télé suspendue de manière inhabituelle. Je connais tous ces objets, je ne me contente pas de les identifier. Je comprends également comment ils sont interconnectés les uns aux autres. J'ai des idées sur le fonctionnement du monde qui m'entoure. Ils ne sont pas parfaits. Ils ont peut-être tort, mais ils sont plutôt bons. Et sur cette base, je tire de nombreuses conclusions qui deviennent des lignes directrices pour mes actions quotidiennes.

L'autre extrême était quelque chose comme le système de jeu Atari construit par DeepMind, dans lequel il se souvenait de ce qu'il devait faire lorsqu'il voyait des pixels à certains endroits de l'écran. Si vous obtenez suffisamment de données, vous pensez peut-être avoir une compréhension, mais en réalité, c'est très superficiel. La preuve en est que si vous déplacez des objets de trois pixels, l'IA joue bien moins bien. Les changements le déroutent. C’est le contraire d’une compréhension profonde.

Pour résoudre ce problème, vous proposez de revenir à l’IA classique. Quels avantages devrions-nous essayer d’exploiter ?

Il y a plusieurs avantages.

Premièrement, l’IA classique est en fait un cadre permettant de créer des modèles cognitifs du monde, sur la base desquels des conclusions peuvent ensuite être tirées.

Deuxièmement, l’IA classique est parfaitement compatible avec les règles. Il existe actuellement une tendance étrange dans le domaine de l’apprentissage profond, où les experts tentent d’éviter les règles. Ils veulent tout faire sur les réseaux de neurones et ne rien faire qui ressemble à de la programmation classique. Mais il y a des problèmes qui ont été résolus calmement de cette manière, et personne n'y a prêté attention. Par exemple, créer des itinéraires dans Google Maps.

En fait, nous avons besoin des deux approches. L’apprentissage automatique est efficace pour apprendre à partir de données, mais très mauvais pour représenter l’abstraction qu’est un programme informatique. L’IA classique fonctionne bien avec les abstractions, mais elle doit être entièrement programmée à la main, et il y a trop de connaissances dans le monde pour toutes les programmer. Il est évident que nous devons combiner les deux approches.

Cela rejoint le chapitre dans lequel vous parlez de ce que nous pouvons apprendre de l’esprit humain. Et tout d’abord, sur le concept basé sur l’idée mentionnée ci-dessus selon laquelle notre conscience est constituée de nombreux systèmes différents qui fonctionnent de différentes manières.

Je pense qu’une autre façon d’expliquer cela est que chaque système cognitif dont nous disposons résout en réalité un problème différent. Des éléments similaires de l’IA doivent être conçus pour résoudre différents problèmes présentant des caractéristiques différentes.

Nous essayons désormais d’utiliser des technologies tout-en-un pour résoudre des problèmes radicalement différents les uns des autres. Comprendre une phrase n’est pas du tout la même chose que reconnaître un objet. Mais les gens essaient d’utiliser l’apprentissage profond dans les deux cas. D'un point de vue cognitif, ce sont des tâches qualitativement différentes. Je suis tout simplement étonné du peu d’appréciation de l’IA classique dans la communauté du deep learning. Pourquoi attendre qu’une solution miracle apparaisse ? C'est inaccessible et des recherches infructueuses ne nous permettent pas de comprendre toute la complexité de la tâche de création de l'IA.

Vous mentionnez également que les systèmes d’IA sont nécessaires pour comprendre les relations de cause à effet. Pensez-vous que l’apprentissage profond, l’IA classique ou quelque chose de complètement nouveau nous y aideront ?

C’est un autre domaine dans lequel l’apprentissage profond n’est pas bien adapté. Il n'explique pas les causes de certains événements, mais calcule la probabilité d'un événement dans des conditions données.

De quoi parle-t-on? Vous observez certains scénarios et vous comprenez pourquoi cela se produit et ce qui pourrait arriver si certaines circonstances changeaient. Je peux regarder le support sur lequel repose le téléviseur et imaginer que si je coupe un de ses pieds, le support basculera et le téléviseur tombera. Il s’agit d’une relation de cause à effet.

L'IA classique nous donne quelques outils pour cela. Il peut imaginer, par exemple, ce qu'est un appui et ce qu'est une chute. Mais je ne ferai pas d’éloges excessifs. Le problème est que l’IA classique dépend en grande partie d’informations complètes sur ce qui se passe, et je suis arrivé à cette conclusion rien qu’en regardant le stand. Je peux en quelque sorte généraliser, imaginer des parties du stand qui ne me sont pas visibles. Nous n'avons pas encore les outils pour implémenter cette propriété.

Vous dites aussi que les gens ont des connaissances innées. Comment cela peut-il être implémenté dans l’IA ?

Au moment de la naissance, notre cerveau est déjà un système très élaboré. Ce n’est pas figé : la nature a créé le premier brouillon. Et puis, apprendre nous aide à réviser cette ébauche tout au long de notre vie.

Une ébauche du cerveau possède déjà certaines capacités. Une chèvre de montagne nouveau-née est capable de descendre infailliblement le flanc de la montagne en quelques heures. Il est évident qu’il a déjà une compréhension de l’espace tridimensionnel, de son corps et de la relation entre eux. Un système très complexe.

C'est en partie pourquoi je pense que nous avons besoin d'hybrides. Il est difficile d’imaginer comment on pourrait créer un robot qui fonctionne bien dans un monde sans savoir par où commencer, plutôt que de partir d’une page vierge et d’apprendre d’une longue et vaste expérience.

Quant aux humains, nos connaissances innées proviennent de notre génome, qui a évolué au fil du temps. Mais avec les systèmes d’IA, nous devrons emprunter une voie différente. Cela pourrait en partie être dû aux règles de construction de nos algorithmes. Une partie de cela peut être liée aux règles de création des structures de données manipulées par ces algorithmes. Et cela peut en partie être dû au fait que nous investirons directement dans des machines.

C'est intéressant que dans le livre vous évoquez l'idée de confiance et la création de systèmes de confiance. Pourquoi avoir choisi ce critère particulier ?

Je crois qu'aujourd'hui tout cela n'est qu'un jeu de balle. Il me semble que nous vivons un moment étrange de l’histoire, en faisant confiance à de nombreux logiciels qui ne sont pas dignes de confiance. Je pense que les inquiétudes que nous avons aujourd’hui ne dureront pas éternellement. Dans cent ans, l’IA justifiera notre confiance, et peut-être avant.

Mais aujourd’hui, l’IA est dangereuse. Pas dans le sens que craint Elon Musk, mais dans le sens où les systèmes d’entretien d’embauche sont discriminatoires à l’égard des femmes, indépendamment de ce que font les programmeurs, parce que leurs outils sont trop simples.

J'aimerais que nous ayons une meilleure IA. Je ne veux pas voir un « hiver de l’IA » où les gens se rendent compte que l’IA ne fonctionne pas et qu’elle est tout simplement dangereuse et ne veulent pas y remédier.

D’une certaine manière, votre livre semble très optimiste. Vous supposez qu’il est possible de créer une IA digne de confiance. Il nous suffit de regarder dans une autre direction.

C'est vrai, le livre est très pessimiste à court terme et très optimiste à long terme. Nous pensons que tous les problèmes que nous avons décrits peuvent être résolus en examinant de manière plus large quelles devraient être les bonnes réponses. Et nous pensons que si cela se produit, le monde sera meilleur.

Source: habr.com

Ajouter un commentaire