Nvidia nevrale nettverk gjør enkle skisser til vakre landskap

Nvidia nevrale nettverk gjør enkle skisser til vakre landskap
Fossen til røykeren og fossen til en sunn person

Vi vet alle hvordan man tegner en ugle. Først må du tegne en oval, deretter en annen sirkel, og deretter - du får en nydelig ugle. Selvfølgelig er dette en spøk, og en veldig gammel en, men Nvidia-ingeniører prøvde å gjøre fantasien til virkelighet.

Ny utvikling, som heter GauGAN, skaper nydelige landskap fra veldig enkle skisser (helt enkelt - sirkler, linjer og alt). Selvfølgelig er denne utviklingen basert på moderne teknologier - nemlig generative adversarielle nevrale nettverk.

GauGAN lar deg lage fargerike virtuelle verdener - og ikke bare for moro skyld, men også for jobb. Så, arkitekter, landskapsdesignere, spillutviklere - de kan alle lære noe nyttig. Kunstig intelligens "forstår" umiddelbart hva en person vil ha og utfyller den opprinnelige ideen med en enorm mengde detaljer.

"Brainstorming når det gjelder designutvikling er mye enklere ved hjelp av GauGAN, siden en smart børste kan utfylle den første skissen ved å legge til kvalitetsbilder," sa en GauGAN-utvikler.

Brukere av dette verktøyet kan endre den opprinnelige ideen, endre landskapet eller andre bilder, legge til himmel, sand, hav, etc. Alt ditt hjerte begjærer, og tilsetningen tar bare et par sekunder.

Det nevrale nettverket ble trent ved hjelp av en database med millioner av bilder. Takket være dette kan systemet forstå hva en person ønsker og hvordan oppnå det de ønsker. Dessuten glemmer det nevrale nettverket ikke de minste detaljene. Så hvis du skjematisk tegner en dam og noen trær ved siden av den, etter at landskapet er gjenopplivet, vil alle nærliggende gjenstander reflekteres i speilet til dammens vann.

Du kan fortelle systemet hva den synlige overflaten skal være - den kan dekkes med gress, snø, vann eller sand. Alt dette kan forvandles på et sekund, slik at snøen blir til sand og i stedet for en snødekt ødemark får kunstneren et ørkenlandskap.

«Det er som en fargeleggingsbok som sier hvor du skal plassere treet, hvor er solen og hvor er himmelen. Deretter, etter den første oppgaven, animerer det nevrale nettverket bildet, legger til nødvendige detaljer og teksturer, tegner refleksjoner. Alt dette er basert på ekte bilder, sier en av utviklerne.


Selv om systemet mangler «forståelse» for den virkelige verden, skaper systemet imponerende landskap. Dette er fordi det brukes to nevrale nettverk her, en generator og en diskriminator. Generatoren lager et bilde og viser det til diskriminatoren. Han, basert på millioner av tidligere sett bilder, velger de mest realistiske alternativene.

Derfor «vet» generatoren hvor refleksjonene skal være. Det er verdt å merke seg at verktøyet er veldig fleksibelt og utstyrt med et stort antall innstillinger. Så med den kan du male, tilpasse deg stilen til en bestemt kunstner, eller bare leke med det raske tillegget soloppgang eller solnedgang.

Utviklerne hevder at systemet ikke bare tar bilder fra et sted, legger dem sammen og får resultatet. Nei, alle mottatte "bilder" er generert. Det vil si at det nevrale nettverket "skaper" som en ekte kunstner (eller enda bedre).

Foreløpig er ikke programmet fritt tilgjengelig, men snart vil det være mulig å teste det i arbeid. Dette kan gjøres på GPU Technology Conference 2019, som for tiden pågår i California. De heldige som fikk besøke utstillingen kan allerede nå teste GauGAN.

Nevrale nettverk har lenge blitt lært opp til å ta del i den kreative prosessen. For eksempel i fjor, noen av dem kunne lage 3D-modeller. I tillegg trente utviklerne fra DeepMind det nevrale nettverket til å gjenopprette tredimensjonale rom og objekter fra tegninger, fotografier og skisser. For å gjenskape en enkel figur trenger det nevrale nettverket ett bilde; for å lage mer komplekse objekter kreves det fem bilder for "trening".

Når det gjelder GauGAN, vil dette verktøyet helt klart finne en verdig kommersiell anvendelse - mange områder innen næringsliv og vitenskap har behov for slike tjenester.

Kilde: www.habr.com

Legg til en kommentar