Ný grein: Computational Photography

Upprunalega greinin er birt á heimasíðunni Vastrik.ru og birt á 3DNews með leyfi höfundar. Við bjóðum upp á allan texta greinarinnar, að undanskildum miklum fjölda tengla - þeir munu nýtast þeim sem hafa mikinn áhuga á efninu og vilja kynna sér fræðilega þætti tölvuljósmyndunar ítarlegri, en fyrir a almennum áhorfendum við töldum þetta efni óþarft.  

Í dag er ekki ein snjallsímakynning lokið án þess að sleikja myndavélina sína. Í hverjum mánuði heyrum við um næstu velgengni farsímamyndavéla: Google kennir Pixel að skjóta í myrkri, Huawei að þysja eins og sjónauka, Samsung setur inn lidar og Apple gerir kringlóttustu horn heims. Það eru fáir staðir þar sem nýsköpun flæðir jafn hratt þessa dagana.

Á sama tíma virðast speglarnir vera að marka tíma. Sony sturtar öllum árlega með nýjum fylkjum og framleiðendur uppfæra letilega nýjustu útgáfustafinn og halda áfram að slaka á og reykja á hliðarlínunni. Ég er með $3000 DSLR á skrifborðinu mínu, en þegar ég ferðast tek ég iPhone minn. Hvers vegna?

Eins og klassíkin sagði þá fór ég á netið með þessa spurningu. Þar ræða þeir nokkur „algrím“ og „tauganet“ án þess að hafa hugmynd um hvernig þau hafa nákvæmlega áhrif á ljósmyndun. Blaðamenn eru að lesa hátt upp fjölda megapixla, bloggarar eru að saga greiddar upptökur í sameiningu og fagurfræðingar smyrja sig með „skynjunarlegri skynjun á litatöflu fylkisins. Allt er eins og venjulega.

Ég þurfti að setjast niður, eyða hálfri ævinni og finna út úr þessu sjálfur. Í þessari grein mun ég segja þér hvað ég lærði.

#Hvað er tölvuljósmyndun?

Alls staðar, þar á meðal Wikipedia, gefa þeir eitthvað eins og þessa skilgreiningu: tölvuljósmyndun er hvaða myndatöku- og vinnsluaðferð sem notar stafræna tölvu í stað sjónbreytinga. Allt við það er gott, nema að það útskýrir ekki neitt. Jafnvel sjálfvirkur fókus er hentugur fyrir það, en plenoptics, sem hefur þegar fært okkur mikið af gagnlegum hlutum, passar ekki. Óljós opinberar skilgreiningar virðast gefa til kynna að við höfum ekki hugmynd um hvað við erum að tala um.

Frumkvöðull tölvuljósmyndunar, Stanford prófessor Marc Levoy (sem nú er ábyrgur fyrir myndavélinni hjá Google Pixel) gefur aðra skilgreiningu - safn af tölvusjónunaraðferðum sem bæta eða auka getu stafrænnar ljósmyndunar, þar sem venjuleg ljósmynd er fengin sem var tæknilega ekki hægt að taka með þessari myndavél.myndavél á hefðbundinn hátt. Í greininni held ég mig við þetta.

Svo, snjallsímar áttu sök á öllu.

Snjallsímar áttu ekki annarra kosta völ en að fæða nýja tegund ljósmyndunar: tölvuljósmyndun.

Lítil hávaðasöm fylki þeirra og örsmáar linsur með hægu ljósopi, samkvæmt öllum lögmálum eðlisfræðinnar, ættu aðeins að hafa valdið sársauka og þjáningu. Þeir gerðu það þar til forritarar þeirra komust að því hvernig þeir gætu nýtt styrkleika sína á snjallan hátt til að sigrast á veikleikum sínum - hröðum rafrænum shutters, öflugum örgjörvum og hugbúnaði.

Ný grein: Computational Photography

Flestar áberandi rannsóknir á sviði tölvuljósmyndunar áttu sér stað á árunum 2005 til 2015, sem í vísindum er talið bókstaflega í gær. Núna, fyrir augum okkar og í vösum okkar, er að þróast nýtt svið þekkingar og tækni sem hefur aldrei verið til áður.

Tölvuljósmyndun snýst ekki bara um selfies með neuro-bokeh. Nýleg ljósmynd af svartholi hefði ekki verið möguleg án tölvuljósmyndatækni. Til að taka slíka mynd með venjulegum sjónauka þyrftum við að gera hana á stærð við jörðina. Hins vegar, með því að sameina gögn frá átta útvarpssjónaukum á mismunandi stöðum á boltanum okkar og skrifa nokkur handrit í Python, náðum við fyrstu ljósmynd heimsins af sjóndeildarhring viðburðarins. Gott fyrir selfies líka.

Ný grein: Computational Photography

#Upphaf: stafræn vinnsla

Ímyndum okkur að við skiluðum 2007. Móðir okkar er stjórnleysi og myndirnar okkar eru háværir 0,6 megapixla jeppar teknir á hjólabretti. Um það leyti höfum við fyrstu ómótstæðilegu löngunina til að stökkva forstillingum yfir þær til að fela ömurleikann í farsímafylki. Við skulum ekki afneita okkur sjálfum.

Ný grein: Computational Photography

#Matan og Instagram

Með útgáfu Instagram urðu allir helteknir af síum. Sem einhver sem öfugsnúnaði X-Pro II, Lo-Fi og Valencia í auðvitað rannsóknarskyni, man ég enn að þeir samanstóð af þremur hlutum:

  • Litastillingar (Hue, Saturation, Lightness, Contrast, Levels, osfrv.) - Einfaldir stafrænir stuðlar, nákvæmlega eins og allar forstillingar sem ljósmyndarar hafa notað frá fornu fari.
  • Tónavörp eru gildisvigrar, sem hver um sig sagði okkur: „Rauða litnum með 128 blæ skal breyta í 240 blæ.
  • Yfirlögn er hálfgagnsær mynd með ryki, korni, vinjettu og öllu öðru sem hægt er að setja ofan á til að fá alls ekki banal áhrif gamallar kvikmyndar. Var ekki alltaf til staðar.   

Nútímasíur eru ekki langt frá þessu tríói, þær eru aðeins orðnar aðeins flóknari í stærðfræði. Með tilkomu vélbúnaðarskyggingar og OpenCL á snjallsímum voru þeir fljótt endurskrifaðir fyrir GPU og þetta þótti ofboðslega flott. Fyrir 2012, auðvitað. Í dag getur hver nemandi gert slíkt hið sama í CSS og hann mun samt ekki fá tækifæri til að útskrifast.

Hins vegar hefur framgangur sía ekki stöðvast í dag. Strákarnir frá Dehanser eru til dæmis frábærir í að nota ólínulegar síur - í stað þess að kortlagning verkalýðstóna nota þeir flóknari ólínulegar umbreytingar, sem að þeirra sögn opnar mun fleiri möguleika.

Þú getur gert margt með ólínulegum umbreytingum, en þeir eru ótrúlega flóknir og við mennirnir erum ótrúlega heimskir. Um leið og það kemur að ólínulegum umbreytingum í vísindum kjósum við að fara í tölulegar aðferðir og troða tauganetum alls staðar þannig að þeir skrifi meistaraverk fyrir okkur. Það var eins hér.

#Sjálfvirkni og dreymir um „meistaraverk“ hnapp

Þegar allir voru orðnir vanir síum fórum við að smíða þær beint í myndavélar. Sagan leynir því hvaða framleiðandi var sá fyrsti, en bara til að skilja hversu langt síðan það var - í iOS 5.0, sem kom út árið 2011, var nú þegar til opinbert API fyrir sjálfvirkar myndir. Aðeins Jobs veit hversu lengi það var í notkun áður en það var opnað fyrir almenning.

Sjálfvirknin gerði það sama og hvert og eitt okkar gerir þegar mynd er opnuð í ritlinum - hún dró út eyður í ljósi og skuggum, bætti við mettun, fjarlægði rauð augu og festi yfirbragð. Notendur áttuðu sig ekki einu sinni á því að „stórbætt myndavélin“ í nýja snjallsímanum var bara kostur nokkurra nýrra skygginga. Enn voru fimm ár eftir af útgáfu Google Pixel og upphaf tölvuljósmyndunar.

Ný grein: Computational Photography

Í dag hefur baráttan um „meistaraverk“ hnappinn færst yfir á sviði vélanáms. Eftir að hafa spilað nógu mikið með tónkortlagningu hlupu allir til að þjálfa CNN og GAN til að færa renna í stað notandans. Með öðrum orðum, út frá innsláttarmyndinni, ákvarða sett af ákjósanlegum breytum sem myndu færa þessa mynd nær ákveðnum huglægum skilningi á „góðri ljósmyndun“. Innleitt í sama Pixelmator Pro og öðrum ritstjórum. Það virkar, eins og þú gætir giska á, ekki mjög vel og ekki alltaf. 

#Stafla er 90% af velgengni farsímamyndavéla

Sönn tölvumyndataka hófst með því að stafla saman - að setja margar ljósmyndir ofan á hverja aðra. Það er ekki vandamál fyrir snjallsíma að smella á tugi ramma á hálfri sekúndu. Myndavélar þeirra hafa enga hæga vélræna hluta: ljósopið er fast og í stað hreyfanlegs fortjalds er rafræn lokari. Örgjörvinn skipar einfaldlega fylkinu hversu margar míkrósekúndur hann á að ná villtum ljóseindum og hann les niðurstöðuna.

Tæknilega séð getur síminn tekið myndir á myndbandshraða og myndskeið með myndaupplausn, en það fer allt eftir hraða rútunnar og örgjörvans. Þess vegna setja þeir alltaf dagskrármörk.

Staking sjálft hefur fylgt okkur lengi. Jafnvel afar settu upp viðbætur á Photoshop 7.0 til að setja saman nokkrar ljósmyndir í grípandi HDR eða sauma saman víðmynd upp á 18000 × 600 pixla og ... í rauninni datt enginn út hvað ætti að gera við þær næst. Það var leitt hvað tímarnir voru ríkir og villtir.

Nú erum við orðin fullorðin og köllum það „epsilon ljósmyndun“ - þegar við, með því að breyta einni af færibreytum myndavélarinnar (lýsingu, fókus, stöðu) og sauma saman rammana sem myndast, fáum við eitthvað sem ekki var hægt að fanga í einum ramma. En þetta er hugtak fyrir fræðimenn; í reynd hefur annað nafn skotið rótum - staking. Í dag eru reyndar 90% allra nýjunga í farsímamyndavélum byggðar á því.

Ný grein: Computational Photography

Eitthvað sem margir hugsa ekki um, en það er mikilvægt að skilja alla farsíma- og tölvuljósmyndun: myndavélin á nútíma snjallsíma byrjar að taka myndir um leið og þú opnar appið hennar. Sem er rökrétt, því hún þarf einhvern veginn að flytja myndina yfir á skjáinn. Hins vegar, auk skjásins, vistar það ramma í háupplausn í eigin lykkjubiðminni, þar sem það geymir þá í nokkrar sekúndur í viðbót.

Þegar þú ýtir á „taka mynd“ hnappinn hefur hún í raun þegar verið tekin, myndavélin tekur einfaldlega síðustu myndina úr biðminni.

Svona virkar hvaða farsímamyndavél sem er í dag. Allavega í öllum flaggskipum ekki úr ruslahaugunum. Buffun gerir þér kleift að átta þig á ekki bara núllri lokatöf, sem ljósmyndara hefur lengi dreymt um, heldur jafnvel neikvæðum - þegar þú ýtir á hnapp lítur snjallsíminn inn í fortíðina, losar síðustu 5-10 myndirnar úr biðminni og byrjar að greina ofsalega og líma þær. Ekki lengur að bíða eftir að síminn smelli á ramma fyrir HDR eða næturstillingu - taktu þá bara úr biðminni, notandinn veit það ekki einu sinni.

Ný grein: Computational Photography

Við the vegur, það er með hjálp neikvæðrar lokarahöfunar sem Live Photo er útfært í iPhone og HTC var með eitthvað svipað árið 2013 undir hinu undarlega nafni Zoe.

#Lýsingarstafla - HDR og berjast gegn birtubreytingum

Ný grein: Computational Photography

Hvort myndavélarskynjarar séu færir um að fanga allt birtusviðið sem er aðgengilegt fyrir augu okkar er gamalt heitt umræðuefni. Sumir segja nei, vegna þess að augað er fær um að sjá allt að 25 f-stopp, en jafnvel frá efstu fullri ramma fylki er hægt að fá að hámarki 14. Aðrir kalla samanburðinn rangan, vegna þess að heilinn hjálpar augað með því að stilla sig sjálfkrafa. sjáaldurinn og klára myndina með tauganetum sínum, og augnablikið. Hvikasvið augans er í raun ekki meira en aðeins 10-14 f-stopp. Við skulum skilja þessa umræðu eftir bestu hægindastólahugsendum á netinu.

Staðreyndin er enn: þegar þú tekur vini á björtum himni án HDR á nokkurri farsímamyndavél færðu annað hvort venjulegan himin og svört andlit vina, eða vel teiknaða vini, en himinn sviðinn til dauða.

Lausnin hefur lengi verið fundin upp - til að auka birtusviðið með því að nota HDR (High dynamic range). Þú þarft að taka nokkra ramma á mismunandi lokarahraða og sauma þá saman. Þannig að einn er „venjulegur“, annar er ljósari, sá þriðji er dekkri. Við tökum dökka staði úr ljósum ramma, fyllum út yfirlýsingar frá dökkum - gróði. Það eina sem er eftir er að leysa vandamálið með sjálfvirkri fráviksbreytingu - hversu mikið á að færa útsetningu hvers ramma til að ofleika ekki, en nú getur annað árs nemandi við tækniháskóla séð um að ákvarða meðalbirtustig myndar.

Ný grein: Computational Photography

Á nýjustu iPhone, Pixel og Galaxy er HDR stillingu venjulega kveikt sjálfkrafa þegar einfalt reiknirit inni í myndavélinni ákvarðar að þú sért að taka eitthvað með birtuskilum á sólríkum degi. Þú getur jafnvel tekið eftir því hvernig síminn skiptir um upptökustillingu yfir í biðminni til að vista ramma sem hafa verið færðir í lýsingu - fps í myndavélinni lækkar og myndin sjálf verður safaríkari. Skipti augnablikið sést vel á iPhone X mínum þegar ég tek upp utandyra. Skoðaðu snjallsímann þinn betur næst líka.

Ókosturinn við HDR með lýsingu frávika er órjúfanlegt hjálparleysi þess í lélegri lýsingu. Jafnvel með ljósi á herbergislampa verða rammarnir svo dökkir að tölvan getur ekki stillt þá saman og saumað saman. Til að leysa vandamálið með ljósi, árið 2013 sýndi Google aðra nálgun á HDR í Nexus snjallsímanum sem þá kom út. Hann notaði tímastöflun.

#Tímastöflun - eftirlíking af löngum lýsingum og tímaskekkja

Ný grein: Computational Photography

Tímastöflun gerir þér kleift að búa til langa lýsingu með því að nota röð af stuttum. Frumkvöðlarnir voru aðdáendur þess að mynda stjörnuslóðir á næturhimninum, sem fannst óþægilegt að opna lokarann ​​í tvo tíma í einu. Það var svo erfitt að reikna út allar stillingar fyrirfram og minnsti hristingur myndi eyðileggja alla grindina. Þeir ákváðu að opna lokarann ​​aðeins í nokkrar mínútur, en oft, og fóru svo heim og límdu rammana sem myndaðist í Photoshop.

Ný grein: Computational Photography

Það kemur í ljós að myndavélin tók í raun aldrei á löngum lokarahraða, en við fengum þau áhrif að líkja eftir því með því að leggja saman nokkra ramma sem teknir voru í röð. Það hefur verið búið að skrifa fullt af öppum fyrir snjallsíma sem nota þetta bragð í langan tíma, en þeirra er ekki þörf þar sem eiginleikanum var bætt við næstum allar venjulegar myndavélar. Í dag getur jafnvel iPhone auðveldlega saumað saman langa lýsingu úr lifandi mynd.

Ný grein: Computational Photography

Snúum okkur aftur til Google með nætur-HDR þess. Það kom í ljós að með því að nota tímafrávik geturðu innleitt góðan HDR í myrkri. Tæknin kom fyrst fram í Nexus 5 og var kölluð HDR+. Restin af Android símunum fengu það eins og gjöf. Tæknin er enn svo vinsæl að hún fær meira að segja lof í kynningu á nýjustu Pixels.

HDR+ virkar einfaldlega: Þegar búið er að ákveða að þú sért að taka myndir í myrkri tekur myndavélin síðustu 8-15 RAW myndirnar af biðminni til að leggja þær ofan á aðra. Þannig safnar reikniritið meiri upplýsingum um dökku svæði rammans til að lágmarka hávaða - pixla þar sem myndavélin af einhverjum ástæðum gat ekki safnað öllum upplýsingum og fór úrskeiðis.

Það er eins og að ef þú vissir ekki hvernig capybara liti út og þú baðst fimm manns um að lýsa því, þá væru sögur þeirra nokkurn veginn eins, en hver myndi nefna einstök smáatriði. Þannig myndirðu safna meiri upplýsingum en bara að spyrja um eina. Það er eins með pixla.

Að bæta við ramma sem teknir eru frá einum punkti gefur sömu fölsuðu langa lýsingaráhrifum og með stjörnurnar hér að ofan. Útsetning á tugum ramma er tekin saman, villur í einum eru lágmarkaðar í öðrum. Ímyndaðu þér hversu oft þú þyrftir að smella á DSLR lokarann ​​í hvert skipti til að ná þessu.

Ný grein: Computational Photography

Það eina sem var eftir var að leysa vandamálið með sjálfvirkri litaleiðréttingu - rammar sem teknir eru í myrkri verða venjulega gulir eða grænir og við viljum fá ríkulegt dagsljós. Í fyrstu útgáfum af HDR+ var þetta leyst með því einfaldlega að fínstilla stillingarnar, eins og í síum á Instagram. Þá kölluðu þeir á taugakerfi til að hjálpa.

Svona birtist Night Sight - tækni „næturljósmyndunar“ í Pixel 2 og 3. Í lýsingunni segir: „Vélnámstækni byggð ofan á HDR+, sem gerir nætursýn að verkum.“ Í meginatriðum er þetta sjálfvirkni litaleiðréttingarstigsins. Vélin var þjálfuð á gagnasafni „fyrir“ og „eftir“ myndir til að gera eina fallega úr hvaða setti af dökkum skakkum myndum sem er.

Ný grein: Computational Photography

Við the vegur, gagnasafnið var gert aðgengilegt almenningi. Kannski taka strákarnir frá Apple það og kenna loksins glerskóflunum sínum að taka myndir almennilega í myrkri.

Að auki notar Night Sight útreikninga á hreyfivektor hlutar í rammanum til að staðla óskýrleikann sem á örugglega eftir að eiga sér stað með löngum lokarahraða. Þannig að snjallsíminn getur tekið glæra hluta úr öðrum ramma og límt þá.

#Hreyfistöflun - víðmynd, ofurzoom og hávaðaminnkun

Ný grein: Computational Photography

Panorama er vinsæl skemmtun fyrir íbúa dreifbýlisins. Sagan veit ekki enn um tilvik þar sem pylsumynd myndi vekja áhuga annarra en höfundar hennar, en það er ekki hægt að horfa fram hjá því - fyrir marga var þetta þar sem stöflun hófst í fyrsta lagi.

Ný grein: Computational Photography

Fyrsta gagnlega leiðin til að nota víðmynd er að fá ljósmynd með hærri upplausn en myndavélarfylki leyfir með því að sauma saman nokkra ramma. Ljósmyndarar hafa lengi notað mismunandi hugbúnað fyrir svokallaðar ofurupplausnarljósmyndir - þegar lítið breyttar ljósmyndir virðast bæta hver aðra upp á milli punktanna. Þannig geturðu fengið mynd upp á að minnsta kosti hundruð gígapixla, sem er mjög gagnlegt ef þú þarft að prenta hana á auglýsingaplakat á stærð við hús.

Ný grein: Computational Photography

Önnur, áhugaverðari nálgun er Pixel Shifting. Sumar spegillausar myndavélar eins og Sony og Olympus byrjuðu að styðja hana árið 2014, en þær þurftu samt að líma niðurstöðuna í höndunum. Dæmigerðar nýjungar í stórum myndavélum.

Snjallsímar hafa náð árangri hér af skemmtilegri ástæðu - þegar þú tekur mynd, titrast hendurnar. Þetta vandamál sem virtist hafa verið grunnurinn að innleiðingu innfæddrar ofurupplausnar á snjallsímum.

Til að skilja hvernig þetta virkar þarftu að muna hvernig fylki hvers myndavélar er byggt upp. Hver pixla hans (ljósdíóða) er fær um að skrá aðeins styrk ljóssins - það er fjölda ljóseinda sem berast. Hins vegar getur pixel ekki mælt litinn (bylgjulengd). Til að fá RGB mynd þurftum við að bæta við hækjum hér líka - hylja allt fylkið með rist af marglitum glerhlutum. Vinsælasta útfærslan er kölluð Bayer sían og er notuð í flestum fylkjum í dag. Lítur út eins og myndin hér að neðan.

Ný grein: Computational Photography

Það kemur í ljós að hver pixla fylkisins grípur aðeins R-, G- eða B-hlutann, vegna þess að ljóseindin sem eftir eru endurspeglast miskunnarlaust af Bayer síunni. Það þekkir íhlutina sem vantar með því að reikna hreint út meðaltalsgildi nágrannapixla.

Það eru fleiri grænar frumur í Bayer síunni - þetta var gert á hliðstæðan hátt við mannsaugað. Það kemur í ljós að af 50 milljón pixlum á fylkinu mun grænn fanga 25 milljónir, rautt og blátt - 12,5 milljónir hvor.Restin verður að meðaltali - þetta ferli er kallað debayerization eða demosaicing, og þetta er svo feitur fyndinn hækja á sem allt hvílir.

Ný grein: Computational Photography

Reyndar hefur hvert fylki sitt slæglega einkaleyfi fyrir demosaicing reiknirit, en í tilgangi þessarar sögu munum við vanrækja þetta.

Aðrar tegundir fylkja (eins og Foveon) hafa einhvern veginn ekki náð sér á strik ennþá. Þó að sumir framleiðendur séu að reyna að nota skynjara án Bayer síu til að bæta skerpu og kraftmikið svið.

Þegar það er lítið ljós eða smáatriði hlutar eru mjög smá, töpum við miklum upplýsingum vegna þess að Bayer sían klippir ljóseindir með óæskilegri bylgjulengd á augljósan hátt. Þess vegna komu þeir með Pixel Shifting - að færa fylkið um 1 pixla upp-niður-hægri-vinstri til að ná þeim öllum. Í þessu tilviki reynist myndin ekki vera 4 sinnum stærri, eins og það kann að virðast, örgjörvinn notar einfaldlega þessi gögn til að skrá gildi hvers pixla nákvæmari. Það er ekki að meðaltali yfir nágranna sína, ef svo má segja, heldur yfir fjögur gildi af sjálfu sér.

Ný grein: Computational Photography

Hristingur okkar við að taka myndir í síma gerir þetta ferli að eðlilegri afleiðingu. Í nýjustu útgáfum af Google Pixel er þessi hlutur útfærður og kviknar á þegar þú notar aðdrátt á símanum - hann er kallaður Super Res Zoom (já, mér líkar líka við miskunnarlaus nafngift þeirra). Kínverjar afrituðu það líka í laófóna sína, þó það hafi reynst aðeins verra.

Með því að leggja örlítið breyttar ljósmyndir ofan á hvor aðra geturðu safnað meiri upplýsingum um lit hvers pixla, sem þýðir að draga úr hávaða, auka skerpu og hækka upplausn án þess að auka líkamlegan fjölda megapixla fylkisins. Nútíma flaggskip Android gera þetta sjálfkrafa, án þess að notendur þeirra hugsi jafnvel um það.

#Fókus stöflun - hvaða dýptarskerð sem er og endurfókus í eftirvinnslu

Ný grein: Computational Photography

Aðferðin kemur frá stórmyndatöku, þar sem grunn dýptarskerðing hefur alltaf verið vandamál. Til þess að allur hluturinn væri í fókus þurfti að taka nokkra ramma með fókusinn færist fram og til baka og sauma þá svo saman í einn skarpan. Sama aðferð var oft notuð af landslagsljósmyndurum, sem gerði forgrunninn og bakgrunninn jafn skarpan og niðurgangur.

Ný grein: Computational Photography

Allt hefur þetta líka færst yfir í snjallsíma, þó án mikils efla. Árið 2013 kom Nokia Lumia 1020 með „Refocus App“ út og árið 2014 Samsung Galaxy S5 með „Selective Focus“ ham. Þeir unnu samkvæmt sama kerfi: með því að ýta á hnapp tóku þeir fljótt 3 ljósmyndir - eina með „venjulegum“ fókus, önnur með fókusnum færðan áfram og sú þriðja með fókusinn færðan aftur. Forritið samræmdi ramma og leyfði þér að velja einn þeirra, sem var kallaður „raunveruleg“ fókusstýring í eftirvinnslu.

Það var engin frekari vinnsla, því jafnvel þetta einfalda hakk dugði til að reka annan nagla í lok Lytro og jafnaldra með heiðarlegum endurfókus. Við the vegur, við skulum tala um þá (transition master 80 lvl).

#Reiknifylki - ljóssvið og plenoptics

Eins og við skildum hér að ofan eru fylkin okkar hryllingur á hækjum. Við erum bara orðin vön þessu og erum að reyna að lifa með því. Uppbygging þeirra hefur lítið breyst frá upphafi tíma. Við bættum aðeins tæknilega ferlið - við minnkuðum fjarlægðina á milli punktanna, börðumst gegn truflunarhljóðum og bættum við sérstökum punktum fyrir sjálfvirkan fasaskynjunarfókus. En ef þú tekur jafnvel dýrustu DSLR og reynir að mynda hlaupandi kött með honum í herbergislýsingu - þá mun kötturinn, vægast sagt, sigra.

Ný grein: Computational Photography

Við höfum verið að reyna að finna upp eitthvað betra í langan tíma. Mikið af tilraunum og rannsóknum á þessu sviði er gúgglað eftir „tölvuskynjara“ eða „non-bayer skynjara“ og jafnvel má rekja Pixel Shifting dæmið hér að ofan til tilrauna til að bæta fylki með því að nota útreikninga. Hins vegar hafa efnilegustu sögurnar á síðustu tuttugu árum komið til okkar einmitt úr heimi svokallaðra plenoptic myndavéla.

Svo að þú sofni ekki af eftirvæntingu yfirvofandi flókinna orða, mun ég henda inn innherja um að myndavélin á nýjasta Google Pixel sé bara „örlítið“ stórbrotin. Bara tveir punktar, en jafnvel þetta gerir honum kleift að reikna út rétta sjónræna dýpt rammans jafnvel án annarrar myndavélar, eins og allir aðrir.

Plenoptics er öflugt vopn sem hefur ekki enn skotið. Hér er hlekkur á einn af mínum uppáhalds nýlegum. greinar um getu plenoptic myndavéla og framtíð okkar með þeim, þar sem ég fékk dæmin að láni.

#

Plenoptic myndavél - væntanleg

Fundið upp árið 1994, safnað í Stanford árið 2004. Fyrsta neytendamyndavélin, Lytro, kom út árið 2012. VR iðnaðurinn er nú virkur að gera tilraunir með svipaða tækni.

Plönoptic myndavél er frábrugðin hefðbundinni myndavél í aðeins einni breytingu - fylki hennar er þakið rist af linsum, sem hver um sig nær yfir nokkra raunverulega pixla. Eitthvað eins og þetta:

Ný grein: Computational Photography

Ef þú reiknar rétt út fjarlægðina frá ristinni að fylkinu og stærð ljósopsins mun lokamyndin hafa skýra þyrpinga af punktum - eins konar smáútgáfur af upprunalegu myndinni.

Það kemur í ljós að ef þú tekur til dæmis einn miðpunkt úr hverjum klasa og límir myndina saman með því að nota þá, þá verður hún ekkert frábrugðin þeirri sem tekin er með venjulegri myndavél. Já, við höfum misst aðeins í upplausn, en við munum bara biðja Sony um að bæta við fleiri megapixlum í nýju fylkjunum.

Ný grein: Computational Photography

Gamanið er bara rétt að byrja. ef þú tekur annan pixla úr hverjum klasa og saumar myndina saman aftur færðu venjulega mynd aftur, bara eins og hún væri tekin með einum pixla tilfærslu. Með því að hafa þyrpingar upp á 10 × 10 pixla, munum við fá 100 myndir af hlutnum frá „örlítið“ mismunandi stöðum.

Ný grein: Computational Photography

Stærri klasastærð þýðir fleiri myndir, en minni upplausn. Í heimi snjallsíma með 41 megapixla fylki, þó að við getum vanrækt upplausnina aðeins, þá eru takmörk fyrir öllu. Þú verður að halda jafnvægi.

Allt í lagi, við höfum sett saman myndavél, svo hvað gefur það okkur?

Heiðarleg endurfókus

Eiginleikinn sem allir blaðamenn voru að bulla um í greinum um Lytro var hæfileikinn til að stilla einbeitinguna heiðarlega í eftirvinnslu. Með sanngjörnum er átt við að við notum engin þokunarreiknirit, heldur notum eingöngu pixla við höndina, veljum eða miðum þá úr klösum í tilskildri röð.

RAW ljósmyndun úr pleoptic myndavél lítur undarlega út. Til að ná venjulegum beittum jeppa upp úr honum þarf fyrst að setja hann saman. Til að gera þetta þarftu að velja hvern pixla jeppans úr einum af RAW þyrpingunum. Það fer eftir því hvernig við veljum þá, niðurstaðan mun breytast.

Til dæmis, því lengra sem þyrpingin er frá innfallspunkti upprunalega geislans, því meira úr fókus er þessi geisli. Vegna þess að ljósfræði. Til að fá fókusbreytta mynd þurfum við bara að velja pixla í æskilegri fjarlægð frá upprunalegu myndinni - annað hvort nær eða lengra.

Ný grein: Computational Photography

 

Það var erfiðara að færa fókusinn að sjálfum sér - eingöngu líkamlega voru færri slíkir punktar í þyrpingunum. Í fyrstu vildu verktaki ekki einu sinni gefa notandanum möguleika á að einbeita sér með höndunum - myndavélin sjálf ákvað þetta í hugbúnaði. Notendum líkaði ekki við þessa framtíð, svo þeir bættu við eiginleika í síðari fastbúnaði sem kallast „sköpunarstilling“ en gerðu endurfókus í henni mjög takmarkaða af nákvæmlega þessari ástæðu.

Dýptarkort og þrívídd úr einni myndavél   

Ein einfaldasta aðgerðin í plenoptics er að fá dýptarkort. Til að gera þetta þarftu bara að safna tveimur mismunandi ramma og reikna út hversu mikið hlutirnir í þeim eru færðir til. Meiri breyting þýðir lengra frá myndavélinni.

Google keypti nýlega og drap Lytro, en notaði tækni þeirra fyrir VR og ... fyrir Pixel myndavélina. Frá og með Pixel 2 varð myndavélin „örlítið“ þétt í fyrsta skipti, að vísu með klösum upp á aðeins tvo pixla. Þetta gaf Google tækifæri til að setja ekki upp aðra myndavél, eins og allir hinir strákarnir, heldur að reikna dýptarkortið eingöngu út frá einni mynd.

Ný grein: Computational Photography

Ný grein: Computational Photography

Dýptarkortið er byggt með því að nota tvo ramma sem færðir eru um einn undirpixla. Þetta er alveg nóg til að reikna út tvíundar dýptarkort og skilja forgrunninn frá bakgrunninum og gera þann síðarnefnda óskýra í hinu smarta bokeh. Niðurstaðan af slíkri lagskiptingu er einnig sléttuð út og „bætt“ af tauganetum sem eru þjálfuð til að bæta dýptarkort (en ekki óskýra, eins og margir halda).

Ný grein: Computational Photography

The bragð er að við fengum plenoptics í snjallsímum nánast ókeypis. Við höfum þegar sett linsur á þessi örsmáu fylki til þess að auka á einhvern hátt ljósflæðið. Í næsta Pixel ætlar Google að ganga lengra og hylja fjórar ljósdíóða með linsu.

Heimild: 3dnews.ru

Bæta við athugasemd