Супровідні Godot перевантажені через велику кількість сумнівних змін, створених через AI

Ремі Вершельде (Rémi Verschelde), один з ключових супроводжуючих відкритий ігровий двигун Godot і співзасновник компанії W4 Games, заявив, що наростаючий потік низькоякісних pull-запитів, згенерованих за допомогою великих мовних моделей, вимотує і деморалізує розробників Godot, що займаються рецензією. За словами Ремі, проект Godot пишається своєю відкритістю для нових учасників та надає будь-якому користувачеві можливість вплинути на розвиток двигуна. Супроводжуючі Godot витрачають багато часу, допомагаючи привести pull-запити до належного стану, але при поточній кількості сумнівних змін Ремі не знає, скільки ще команда зможе витримати.

В даний час в репозиторії Godot на GitHub накопичилося понад 4600 відкритих запитів. Адріан де Йонг (Adriaan de Jongh), директор студії розробки ігор Hidden Folks, охарактеризував стан із створюваними через AI сміттєвими pull-запитами для Godot, як повний бардак і величезну втрату часу для рецензуючих, змушених витрачати час на розбір змін, які часто не мають сенсу. розробниками, які не розуміють власні патчі.

З появою AI-інструментів супроводжуючі змушені додатково визначати, чи написаний код людиною або згенерований автоматично, а також розбиратися, чи розуміє автор код, який надіслав. Також доводиться розбиратися, чи автори тестували свій код або представлені результати тестів лише сфабриковані AI. Крім того, Ремі не розуміє, як чинити в ситуації, коли на питання про використання AI автори патчів відповідають «я використав його тільки для опису, тому що погано пишу англійською», що не дозволяє однозначно класифікувати внесок.

Зазначається, що супроводжуючим доводиться по кілька разів на день перевіряти ще раз pull-запити від нових учасників, сумніваючись у їх якості. Єдиним рішенням для збереження колишнього підходу до розробки Ремі вважає збільшення фінансування проекту для того, щоб платити додатковим супроводжуючим, які розбиратиму AI-слоп.

Аналогічні труднощі відчуває проект Blender, який на початку лютого розпочав розробку політики щодо патчів, створених з використанням AI. Раніше правила для таких випадків прийняли Linux Foundation, Fedora, GNOME, Firefox, Ghostty, Servo та LLVM. У січні GitHub розпочав обговорення впровадження заходів для обмеження низькоякісних pull-запитів, згенерованих в AI-асистентах, відправлених без ручної перевірки, які не відповідають вимогам якості та створюють серйозні труднощі для супроводжуючих.

Джерело: opennet.ru

Додати коментар або відгук