Les ingénieurs de Facebook ont publié un transcompilateur
La mise en œuvre du système d'apprentissage automatique est basée sur Pytorch. Deux modèles prêts à l'emploi sont proposés en téléchargement :
C++ vers Python, Python vers C++ et Python vers Java. Pour entraîner les modèles, nous avons utilisé les codes sources des projets publiés sur GitHub. Si vous le souhaitez, des modèles de traduction peuvent être créés pour d'autres langages de programmation. Pour vérifier la qualité de la diffusion, une collection de tests unitaires a été préparée, ainsi qu'une suite de tests comprenant 852 fonctions parallèles.
On prétend qu'en termes de précision de conversion, TransCoder est nettement supérieur aux traducteurs commerciaux qui utilisent des méthodes basées sur des règles de conversion et, dans le processus de travail, il vous permet de vous passer de l'expertise d'experts dans la langue source et cible. La plupart des erreurs qui surviennent lors du fonctionnement du modèle peuvent être éliminées en ajoutant de simples restrictions au décodeur pour garantir que les fonctions générées sont syntaxiquement correctes.
Les chercheurs ont proposé une nouvelle architecture de réseau neuronal « Transformer » pour modéliser des séquences, dans laquelle la récurrence est remplacée par «
Source: opennet.ru