Un interviu cu Greg Kroah-Hartman despre rapoartele de erori generate de inteligența artificială

La conferința KubeCon Europe, The Register l-a intervievat pe Greg Kroah-Hartman, care se ocupă de mentenanța ramurilor stabile și de staging ale kernelului Linux și este responsabil pentru 16 subsisteme de kernel. Interviul discută abordarea lui Kroah-Hartman privind raportarea erorilor bazată pe inteligență artificială. Inteligența artificială este deja utilizată în kernel pentru revizuirea modificărilor aduse subsistemului de rețea, eBPF și DRM, iar instrumentul Sashiko de la Google a fost recent integrat pentru revizuirea modificărilor trimise.

Câteva dintre citatele lui Greg:

  • „Acum câteva luni, primeam ceea ce numeam „gunoi de inteligență artificială” – rapoarte de securitate generate de inteligență artificială care erau în mod clar incorecte sau de calitate scăzută. A fost chiar amuzant. Nu ne-am îngrijorat în mod special... Acum o lună, s-a întâmplat ceva și situația s-a schimbat dramatic. Acum primim rapoarte reale.”
  • „Această situație nu este specifică doar Linuxului — toate proiectele open source primesc rapoarte reale generate de inteligența artificială, iar acestea sunt acum de înaltă calitate și valide. Echipele de securitate din cadrul proiectelor open source majore observă aceeași tendință în discuțiile informale.”
  • Când a fost întrebat ce cauzează acest lucru, Greg a răspuns: „Nu știm. Se pare că nimeni nu știe. Fie multe dintre instrumente s-au îmbunătățit mult, fie oamenii au început să spună: «Hei, hai să rezolvăm asta». Se pare că afectează o mulțime de grupuri și companii diferite. În esență, putem gestiona situația. Echipa noastră a devenit mult mai mare, este foarte distribuită, iar creșterea noastră este reală și nu încetinește. Acestea sunt lucruri mici, nimic major, dar toate proiectele open source ar putea avea nevoie de ajutor în această privință. Proiectele mai mici sunt mult mai puțin capabile să gestioneze un aflux brusc de rapoarte de erori și vulnerabilități generate de inteligența artificială care menționează erori reale, nu gunoaie.”
  • Greg a explicat că atunci când a cerut inteligenței artificiale să găsească erori într-un changelog propus, aceasta a găsit 60 și a furnizat patch-uri pentru a le remedia. Doar o treime din erorile găsite erau erori și doar două treimi din patch-uri erau corecte și nu necesitau nicio intervenție, dar era departe de a fi inutil. Potrivit lui Greg, mentenatorii nu pot ignora acest lucru, mai ales că rezultatele inteligenței artificiale devin din ce în ce mai bune. A fost adăugată o etichetă „Co-developed:” pentru a marca patch-urile create folosind inteligența artificială. În ciuda unor încercări de a utiliza inteligența artificială pentru a crea noi funcționalități, inteligența artificială din nucleu este utilizată în principal pentru revizuirea modificărilor.
  • Unul dintre cele mai notabile beneficii ale inteligenței artificiale este reducerea timpului de procesare a patch-urilor. Atunci când asistentul de inteligență artificială identifică probleme evidente, autorii de patch-uri primesc feedback cu mult înainte ca un responsabil uman să aibă timp să citească patch-ul: „Dacă văd că sistemul reacționează la ceva, îi oferă autorului feedback mai rapid decât ar putea face un responsabil, iar asta e minunat. Avem deja o serie de boți care verifică patch-urile. Dacă observ că generează o eroare, înțeleg imediat că, în calitate de responsabil, nici măcar nu trebuie să mă uit la ea. Și dezvoltatorul se gândește: «Oh, pot face o versiune diferită mâine», ceea ce ajută la îmbunătățirea puțină a buclei de feedback.”

Sursa: opennet.ru

Adauga un comentariu