Podczas konferencji KubeCon Europe, The Register przeprowadził wywiad z Gregiem Kroah-Hartmanem, który utrzymuje stabilne i przejściowe gałęzie jądra Linuksa oraz jest opiekunem 16 podsystemów jądra. Wywiad omawia podejście Kroah-Hartmana do zgłaszania błędów z wykorzystaniem sztucznej inteligencji. Sztuczna inteligencja jest już wykorzystywana w jądrze do przeglądania zmian w podsystemie sieciowym, eBPF i DRM, a narzędzie Sashiko firmy Google zostało niedawno zintegrowane z przeglądaniem przesłanych zmian.
Oto kilka cytatów Grega:
- „Kilka miesięcy temu otrzymywaliśmy to, co nazywaliśmy śmieciami sztucznej inteligencji – generowane przez sztuczną inteligencję raporty bezpieczeństwa, które były ewidentnie niepoprawne lub niskiej jakości. To było nawet zabawne. Nie martwiliśmy się tym szczególnie… Miesiąc temu coś się wydarzyło i sytuacja diametralnie się zmieniła. Teraz otrzymujemy prawdziwe raporty”.
- „Ta sytuacja nie dotyczy wyłącznie Linuksa – wszystkie projekty open source otrzymują rzeczywiste raporty generowane przez sztuczną inteligencję, które są teraz wysokiej jakości i rzetelne. Zespoły ds. bezpieczeństwa w dużych projektach open source zauważają ten sam trend w nieformalnych dyskusjach”.
- Zapytany o przyczynę, Greg odpowiedział: „Nie wiemy. Wygląda na to, że nikt nie wie. Albo wiele narzędzi znacznie się ulepszyło, albo ludzie zaczęli mówić: »Hej, rozwiążmy to«. Wygląda na to, że dotyczy to wielu różnych grup i firm. Zasadniczo, potrafimy sobie z tym poradzić. Nasz zespół znacznie się powiększył, jest bardzo rozproszony, a nasz rozwój jest realny i nie zwalnia. To drobiazgi, nic wielkiego, ale wszystkie projekty open source potrzebują pomocy w tym zakresie. Mniejsze projekty są znacznie mniej odporne na nagły napływ raportów o błędach i lukach bezpieczeństwa generowanych przez sztuczną inteligencję, które wspominają o prawdziwych błędach, a nie o śmieciach”.
- Greg wyjaśnił, że kiedy poprosił sztuczną inteligencję o znalezienie błędów w proponowanym rejestrze zmian, znalazła ich 60 i udostępniła poprawki. Tylko jedna trzecia znalezionych błędów to były błędy, a tylko dwie trzecie poprawek było poprawnych i nie wymagało żadnych działań, ale nie były one bezużyteczne. Według Grega, osoby odpowiedzialne za utrzymanie oprogramowania nie mogą tego ignorować, zwłaszcza że wyniki sztucznej inteligencji są coraz lepsze. Dodano znacznik „Współtworzone:” do oznaczania poprawek utworzonych za pomocą sztucznej inteligencji. Pomimo pewnych prób wykorzystania sztucznej inteligencji do tworzenia nowych funkcjonalności, sztuczna inteligencja w rdzeniu służy głównie do przeglądu zmian.
- Jedną z najbardziej znaczących zalet sztucznej inteligencji (AI) jest skrócenie czasu przetwarzania poprawek. Gdy asystent AI zidentyfikuje oczywiste problemy, autorzy poprawek otrzymują informację zwrotną na długo przed tym, zanim człowiek zdąży ją przeczytać: „Jeśli widzę, że system na coś reaguje, przekazuje autorowi informację zwrotną szybciej niż konserwator, i to jest świetne. Mamy już wiele botów, które sprawdzają poprawki. Jeśli zauważę błąd, od razu rozumiem, że jako konserwator nie muszę nawet na niego patrzeć. A programista myśli: »Och, jutro mogę stworzyć inną wersję«, co nieco usprawnia pętlę informacji zwrotnej”.
Źródło: opennet.ru
