Entretien avec Greg Kroah-Hartman à propos des rapports de bogues générés par l'IA

Lors de la conférence KubeCon Europe, The Register a interviewé Greg Kroah-Hartman, responsable des branches stable et staging du noyau Linux et de la maintenance de 16 sous-systèmes du noyau. L'interview aborde l'approche de Kroah-Hartman concernant les rapports de bogues basés sur l'IA. L'IA est déjà utilisée dans le noyau pour examiner les modifications apportées au sous-système réseau, à eBPF et à DRM, et l'outil Sashiko de Google a récemment été intégré pour l'analyse des modifications soumises.

Quelques citations de Greg :

  • « Il y a quelques mois, nous recevions ce que nous appelions des "déchets d'IA" — des rapports de sécurité générés par l'IA qui étaient manifestement incorrects ou de mauvaise qualité. C'était même risible. Cela ne nous inquiétait pas particulièrement... Il y a un mois, un événement s'est produit et la situation a radicalement changé. Maintenant, nous recevons de vrais rapports. »
  • « Cette situation n’est pas propre à Linux : tous les projets open source reçoivent de véritables rapports générés par l’IA, et ceux-ci sont désormais de haute qualité et valides. Les équipes de sécurité des principaux projets open source constatent la même tendance lors de discussions informelles. »
  • Interrogé sur les causes de ce problème, Greg a répondu : « On ne sait pas. Apparemment, personne ne le sait. Soit les outils se sont considérablement améliorés, soit on a commencé à se dire : “Allez, on va trouver une solution !” Il semble que cela touche de nombreux groupes et entreprises. De notre côté, on gère la situation. Notre équipe s’est beaucoup agrandie, elle est très répartie, et notre croissance est bien réelle et ne ralentit pas. Ce sont des détails, rien de majeur, mais tous les projets open source pourraient bénéficier d’un coup de pouce. Les petits projets sont beaucoup moins à même de gérer un afflux soudain de rapports de bugs et de vulnérabilités générés par l’IA, qui mentionnent de vrais bugs et non des données inutiles. »
  • Greg a expliqué que lorsqu'il a demandé à l'IA de détecter des bogues dans un journal des modifications proposé, celle-ci en a trouvé 60 et a fourni des correctifs. Seul un tiers des bogues détectés étaient avérés, et seulement deux tiers des correctifs étaient corrects et ne nécessitaient aucune intervention. Cependant, l'IA était loin d'être inutile. Selon Greg, les responsables de la maintenance ne peuvent ignorer ce résultat, d'autant plus que les performances de l'IA s'améliorent. Une étiquette « Co-développé » a été ajoutée pour marquer les correctifs créés à l'aide de l'IA. Malgré quelques tentatives d'utilisation de l'IA pour créer de nouvelles fonctionnalités, son utilisation principale au sein du noyau est la revue des modifications.
  • L'un des avantages les plus notables de l'IA est la réduction du temps de traitement des correctifs. Lorsque l'assistant IA identifie des problèmes évidents, les auteurs de correctifs reçoivent un retour d'information bien avant qu'un mainteneur humain n'ait le temps de lire le correctif : « Si je vois que le système réagit à quelque chose, il fournit un retour d'information à l'auteur plus rapidement qu'un mainteneur ne pourrait le faire, et c'est formidable. Nous avons déjà plusieurs bots qui vérifient les correctifs. Si je remarque qu'ils génèrent une erreur, je comprends immédiatement qu'en tant que mainteneur, je n'ai même pas besoin de m'en occuper. Et le développeur se dit : « Oh, je peux faire une version différente demain », ce qui contribue à améliorer légèrement le cycle de retour d'information. »

Source: opennet.ru

Ajouter un commentaire