Een groep onderzoekers van de Technische Universiteit van Shanghai
gebruik van een raamwerk
De toolkit ontvangt een tweedimensionaal beeld als invoer en synthetiseert een aangepast resultaat op basis van het geselecteerde model. Er worden drie transformatieopties ondersteund:
Het creΓ«ren van een bewegend object dat de bewegingen volgt waarop het model is getraind. Het overbrengen van uiterlijke elementen van een model naar een object (bijvoorbeeld een verandering van kleding). Genereren van een nieuwe invalshoek (bijvoorbeeld synthese van een profielafbeelding op basis van een foto van het hele gezicht). Alle drie de methoden kunnen worden gecombineerd. U kunt bijvoorbeeld een video genereren van een foto die de uitvoering van een complexe acrobatische truc in verschillende kleding simuleert.
Tijdens het syntheseproces worden de handelingen van het selecteren van een object op een foto en het vormen van de ontbrekende achtergrondelementen tijdens het bewegen gelijktijdig uitgevoerd. Het neurale netwerkmodel kan één keer worden getraind en voor verschillende transformaties worden gebruikt. Voor laden
In tegenstelling tot transformatiemethoden die gebaseerd zijn op transformatie door middel van sleutelpunten die de locatie van het lichaam in een tweedimensionale ruimte beschrijven, probeert Impersonator een driedimensionaal netwerk te synthetiseren met een beschrijving van het lichaam met behulp van machinale leermethoden.
De voorgestelde methode maakt manipulaties mogelijk, waarbij rekening wordt gehouden met de persoonlijke lichaamsvorm en de huidige houding, waarbij de natuurlijke bewegingen van de ledematen worden gesimuleerd.
Om originele informatie zoals texturen, stijl, kleuren en gezichtsherkenning tijdens het transformatieproces te behouden,
Bron: opennet.ru