Yog tias ib yam dab tsi zoo li nthuav rau koj ntau dua li lwm tus, koj tuaj yeem hla mus rau cov ntu no tam sim ntawd.
Yooj yim pib
Lub network neural nrog cov txheej txheem nyuaj, kev ua haujlwm tsis tu ncua, thiab tus nqi kawm ntawv yog qhov nyuaj rau kev debug dua li ib txwm muaj. Peb tab tom ua me ntsis lo lus nug ntawm no, txij li lub ntsiab lus nws tus kheej tsis ncaj qha cuam tshuam nrog kev debugging, tab sis qhov no tseem yog qhov kev pom zoo tseem ceeb.
Yog tias qhov gradient qhov tseem ceeb yog xoom, qhov no txhais tau hais tias qhov kev kawm hauv qhov optimizer qeeb dhau, lossis koj tab tom ntsib cov lus qhia tsis raug rau kev hloov kho gradient.
Tsis tas li ntawd, nws yog ib qho tsim nyog los saib xyuas cov txiaj ntsig ntawm kev ua kom muaj zog, qhov hnyav thiab hloov tshiab ntawm txhua txheej. Piv txwv li, qhov loj ntawm qhov hloov tshiab parameter (qhov hnyav thiab kev tsis ncaj ncees) yuav 1e3.
Muaj ib qho tshwm sim hu ua "Dying ReLU" lossis "Vanishing gradient teeb meem", thaum ReLU neurons yuav tso tawm xoom tom qab kawm txog qhov tsis zoo ntawm qhov tsis zoo rau nws qhov hnyav. Cov neurons no yeej tsis raug rho tawm haujlwm ib zaug ntxiv ntawm cov ntaub ntawv.
Koj tuaj yeem siv gradient checking los txheeb xyuas cov kev ua yuam kev no los ntawm kwv yees qhov gradient siv tus lej mus kom ze. Yog hais tias nws nyob ze rau cov gradients xam, ces backpropagation raug siv kom raug. Txhawm rau tsim qhov ntsuas gradient, tshawb xyuas cov peev txheej zoo ntawm CS231 no ΠΈ nothiab nrog zaj lus qhia Andrew Nga on this topic.
Ua kom raws li. Hauv lawv, peb txiav txim siab qhov kev ua haujlwm ntawm ib tus neeg neurons lossis pab pawg ntawm cov neurons kom nkag siab txog lawv txoj haujlwm.
Raws li gradients. Cov txheej txheem no zoo li los tswj cov gradients uas yog tsim los ntawm kev mus rau pem hauv ntej thiab rov qab dhau ntawm cov qauv kev cob qhia (nrog rau daim ntawv qhia kev noj qab haus huv thiab daim ntawv qhia ua haujlwm hauv chav kawm).
Muaj ntau ntau yam cuab yeej siv tau los ua kom pom kev ua haujlwm thiab kev sib txuas ntawm cov txheej txheem ib leeg, xws li. ConX ΠΈ Tensorboard.
Parameter diagnostics
Neural networks muaj ntau qhov tsis sib xws, uas cuam tshuam rau kev ua kom zoo dua qub. Qhov tseeb, ntu no yog qhov kev tshawb fawb nquag los ntawm cov kws tshaj lij, yog li cov lus qhia hauv qab no yuav tsum raug suav hais tias tsuas yog cov lus qhia, pib cov ntsiab lus los ntawm kev tsim.
Pob loj (batch loj) - Yog tias koj xav kom cov batch loj txaus kom tau txais qhov tseeb qhov yuam kev gradient kwv yees, tab sis me me txaus rau stochastic gradient qhovntsej thiaj tsis mob (SGD) los ua kom koj lub network tsis tu ncua. Cov batch me me yuav ua rau kev sib koom ua ke sai vim yog lub suab nrov thaum lub sijhawm kev cob qhia thiab tom qab ntawd rau kev ua kom zoo dua qub. Qhov no tau piav qhia ntau ntxiv no.
Kev kawm tus nqi - tsawg dhau yuav ua rau kev sib tshuam qeeb lossis kev pheej hmoo ntawm kev daig hauv minima hauv zos. Nyob rau tib lub sijhawm, qhov kev kawm siab yuav ua rau muaj kev sib txawv ntawm qhov zoo vim tias koj pheej hmoo dhia mus rau qhov tob tab sis nqaim ib feem ntawm kev poob haujlwm. Sim siv lub sijhawm teem sijhawm kom txo tau nws thaum cob qhia neural network. Txog hnub tim nrog CS231n muaj ib feem loj rau qhov teeb meem no.
Gradient clippingβ - trimming parameter gradients thaum lub sij hawm backpropagation ntawm tus nqi siab tshaj plaws los yog marginal qauv. Pab tau rau kev daws teeb meem txhua qhov tawg gradients koj yuav ntsib nyob rau hauv point peb.
Batch normalization - siv los normalize cov ntaub ntawv tawm tswv yim ntawm txhua txheej, uas tso cai rau peb los daws qhov teeb meem ntawm kev hloov hauv covariate. Yog tias koj siv Dropout thiab Batch Norma ua ke, xyuas cov tshooj no.
Stochastic gradient qhovntsej thiaj tsis mob (SGD) - muaj ntau ntau yam ntawm SGD uas siv lub zog, hloov pauv kev kawm thiab Nesterov txoj kev. Txawm li cas los xij, tsis muaj leej twg muaj qhov zoo dua ntawm kev kawm thiab kev nthuav dav (paub meej ntawm no).
Txhawm rau ntsuas txhua yam ntawm koj tus kheej, koj yuav tsum lov tes taw tsis tu ncua thiab xyuas cov ntaub ntawv poob gradient koj tus kheej.
Tawm tawm yog lwm txoj hauv kev los txhim kho koj lub network kom tsis txhob muaj teeb meem. Thaum lub sijhawm kev cob qhia, kev tso tawm tsuas yog ua los ntawm kev tswj hwm cov haujlwm ntawm cov neuron nrog qee qhov tshwm sim p (hyperparameter) lossis teeb tsa nws mus rau xoom hauv qhov sib txawv. Yog li ntawd, lub network yuav tsum siv qhov sib txawv ntawm qhov tsis sib xws rau txhua qhov kev cob qhia batch, uas txo cov kev hloov pauv hauv qee qhov kev txwv uas dhau los ua qhov tseem ceeb.
Tseem ceeb: Yog tias koj siv ob qho tib si tso tawm thiab batch normalization, ceev faj txog qhov kev txiav txim ntawm cov haujlwm no lossis txawm siv ua ke. Tag nrho cov no tseem tab tom sib tham thiab ntxiv. Nov yog ob qhov kev sib tham tseem ceeb ntawm lub ncauj lus no ntawm Stackoverflow ΠΈ khaws cia.
Tswj haujlwm
Nws yog hais txog cov ntaub ntawv ua haujlwm thiab kev sim. Yog tias koj tsis sau ib yam dab tsi, tej zaum koj yuav hnov ββββqab, piv txwv li, qhov kev kawm twg los yog siv qhov hnyav hauv chav kawm. Ua tsaug rau kev tswj hwm, koj tuaj yeem yooj yim saib thiab rov tsim dua cov kev sim yav dhau los. Qhov no tso cai rau koj los txo tus naj npawb ntawm cov kev sim dua.
Txawm li cas los xij, phau ntawv cov ntaub ntawv tuaj yeem dhau los ua haujlwm nyuaj nyob rau hauv rooj plaub ntawm kev ua haujlwm loj. Qhov no yog qhov uas cov cuab yeej zoo li Comet.ml tuaj yeem pab koj tau txais cov ntaub ntawv teev tseg, cov lej hloov pauv, kev sim keeb kwm, thiab cov qauv tsim, suav nrog cov ntaub ntawv tseem ceeb ntawm koj tus qauv (hyperparameters, qauv ntsuas kev ua tau zoo, thiab cov ntaub ntawv ib puag ncig).
Lub network neural tuaj yeem nkag siab zoo rau cov kev hloov pauv me me, thiab qhov no yuav ua rau poob qis hauv cov qauv kev ua haujlwm. Taug qab thiab sau koj cov ntaub ntawv ua haujlwm yog thawj kauj ruam uas koj tuaj yeem ua rau tus qauv tsim koj ib puag ncig thiab ua qauv.