Das Gentoo-Projekt hat die Übernahme von Änderungen verboten, die mit KI-Tools vorbereitet wurden

Der Verwaltungsrat der Gentoo-Linux-Distribution hat Regeln verabschiedet, die es Gentoo verbieten, Inhalte zu akzeptieren, die mit KI-Tools erstellt wurden, die Abfragen in natürlicher Sprache verarbeiten, wie etwa ChatGPT, Bard und GitHub Copilot. Solche Tools sollten nicht verwendet werden, wenn Sie Gentoo-Komponentencode schreiben, Ebuilds erstellen, Dokumentation vorbereiten oder Fehlerberichte einreichen.

Die Hauptgründe, warum der Einsatz von KI-Tools in Gentoo verboten ist:

  • Unsicherheit über mögliche Urheberrechtsverletzungen bei Inhalten, die mithilfe von Modellen erstellt wurden, die auf großen Datensätzen, einschließlich urheberrechtlich geschützter Werke, trainiert wurden. Es wird auch erwähnt, dass die Einhaltung der Lizenzanforderungen bei Code, der mit KI-Tools generiert wird, nicht gewährleistet werden kann. Der generierte KI-Code kann als abgeleitetes Werk des Codes betrachtet werden, der zum Trainieren des Modells verwendet wurde und unter bestimmten Lizenzen vertrieben wird.

    Wenn beispielsweise ein Modell auf Code mit einer Lizenz trainiert wird, die eine Namensnennung erfordert, erfüllt der von KI-Tools bereitgestellte Code diese Anforderung nicht, was als Verstoß gegen die meisten offenen Lizenzen wie GPL, MIT und Apache angesehen werden könnte. Es kann auch zu Lizenzkompatibilitätsproblemen kommen, wenn Code, der mit Modellen erstellt wurde, die auf Code mit Copyleft-Lizenzen trainiert wurden, in Projekte mit permissiven Lizenzen eingefügt wird.

  • Mögliche Qualitätsprobleme. Die Sorge besteht darin, dass der von KI-Tools generierte Code oder Text zwar korrekt aussieht, aber versteckte Probleme und Unstimmigkeiten mit den Fakten enthält. Die Verwendung solcher Inhalte ohne Überprüfung kann zu Projekten mit geringerer Qualität führen. Beispielsweise kann synthetisierter Code Fehler im Code wiederholen, der zum Trainieren des Modells verwendet wird, was letztendlich zu Schwachstellen und dem Fehlen notwendiger Überprüfungen bei der Verarbeitung externer Daten führt.

    Die Verifizierung erfordert viel Arbeit für die Faktenprüfung und Codeüberprüfung. Bei der Analyse automatisch generierter Fehlerberichte müssen Entwickler viel Zeit damit verschwenden, nutzlose Berichte zu analysieren und die darin enthaltenen Informationen mehrmals zu überprüfen, da die äußere Qualität des Designs Vertrauen in die Informationen schafft und das Gefühl entsteht, dass der Prüfer etwas falsch verstanden.

  • Ethische Probleme im Zusammenhang mit Urheberrechtsverletzungen beim Training von Modellen, negative Auswirkungen auf die Umwelt aufgrund hoher Energiekosten bei der Modellerstellung, Entlassungen aufgrund des Ersatzes von Personal durch KI-Dienste und eine Verschlechterung der Qualität der Dienste nach dem Ersatz von Supportdiensten durch Bots nahmen zu Möglichkeiten für Spam und Betrug.

In der Ankündigung wird darauf hingewiesen, dass die neue Anforderung selektiv für KI-Tools außer Kraft gesetzt werden kann, bei denen nachweislich keine urheberrechtlichen, qualitativen oder ethischen Probleme bestehen.

Source: opennet.ru

Kommentar hinzufügen