د بائنری مثال لپاره، ورته حساب په ساده ډول د هر ټولګیو لپاره جوړ شوی. دلته، د مثال په توګه، معلومات دي: 20٪ 0's او 80٪ 1's. متوقع لومړنی زیان به تر –0,2ln (0,5) –0,8ln (0,5) = 0,693147 پورې وي. که پایله له 1 څخه زیاته وي، دا ښایي دا په ګوته کړي چې د عصبي شبکې وزنونه په سمه توګه متوازن ندي یا ډاټا نورمال نه دي.
د منځنیو پایلو او اړیکو چک کول
د عصبي شبکې ډیبګ کولو لپاره ، دا اړینه ده چې په شبکه کې د پروسو متحرکاتو او د انفرادي مینځنۍ پرتونو رول باندې پوه شئ ځکه چې دوی وصل دي. دلته هغه عام غلطۍ دي چې تاسو ورسره مخامخ شئ:
د درجې تازه کولو لپاره غلط څرګندونې؛
د وزن تازه کول نه پلي کیږي؛
چاودیدونکي تدریجي.
که د تدریجي ارزښتونه صفر وي، دا پدې مانا ده چې په اصلاح کونکي کې د زده کړې کچه خورا ورو ده، یا دا چې تاسو د تدریجي تازه کولو لپاره د غلط بیان سره مخ یاست.
سربیره پردې ، دا اړینه ده چې د هر پرتونو د فعالولو دندو ، وزنونو او تازه کولو ارزښتونو څارنه وکړئ. د مثال په توګه، د پیرامیټر تازه کولو اندازه (وزن او تعصب) باید 1-e3 وي.
دلته یوه پدیده شتون لري چې نوم یې "Dying ReLU" یا "د تدریجي ستونزې له منځه تلل"، کله چې ReLU نیورون به د خپل وزن لپاره د لوی منفي تعصب ارزښت زده کولو وروسته صفر تولید کړي. دا نیورونونه هیڅکله د معلوماتو په هیڅ ځای کې بیا نه ویشتل کیږي.
تاسو کولی شئ د شمیرې طریقې په کارولو سره د تدریجي نږدې کولو له لارې د دې غلطیو پیژندلو لپاره د تدریجي چک کولو څخه کار واخلئ. که دا محاسبه شوي درجې ته نږدې وي، نو بیا پروپیګیشن په سمه توګه پلي شوی. د تدریجي چیک رامینځته کولو لپاره ، دا عالي سرچینې د CS231 څخه چیک کړئ دلته и دلتهاو هم ورسره درس انډریو نګ په دې موضوع.
منظم کول - د عمومي کولو وړ ماډل جوړولو لپاره خورا مهم دی، ځکه چې دا د ماډل پیچلتیا یا خورا پیرامیټر ارزښتونو لپاره جزا اضافه کوي. دا یوه لاره ده چې د ماډل توپیر کم کړي پرته له دې چې د پام وړ تعصب زیات کړي. نور تفصيلي معلومات - دلته.
د هرڅه پخپله ارزولو لپاره ، تاسو اړتیا لرئ منظم کول غیر فعال کړئ او پخپله د ډیټا ضایع کیدو درجه چیک کړئ.
وتل د ګڼې ګوڼې د مخنیوي لپاره ستاسو د شبکې منظمولو بله طریقه ده. د روزنې په جریان کې، پریښودل یوازې د یو ځانګړي احتمال p (هایپرپرامیټر) سره د نیورون فعالیت ساتلو یا په مخالف حالت کې صفر ته د تنظیم کولو سره ترسره کیږي. د پایلې په توګه، شبکه باید د هرې روزنې بستې لپاره د پیرامیټونو مختلف فرعي سیټ وکاروي، کوم چې په ځانګړو پیرامیټونو کې بدلونونه کموي چې غالب کیږي.
مهم: که تاسو د وتلو او بیچ نورمال کولو دواړه کاروئ، د دې عملیاتو ترتیب په اړه محتاط اوسئ یا حتی د دوی یوځای کارولو سره. دا ټول اوس هم په فعاله توګه بحث او ضمیمه کیږي. دلته د دې موضوع په اړه دوه مهم بحثونه دي په Stackoverflow کې и ارکسیو.
د کار کنټرول
دا د کار فلو او تجربو مستند کولو په اړه دی. که تاسو هیڅ شی مستند نه کړئ، تاسو ممکن هیر کړئ، د بیلګې په توګه، د زده کړې کچه یا د ټولګي وزنونه کارول کیږي. د کنټرول څخه مننه، تاسو کولی شئ په اسانۍ سره پخوانی تجربې بیاکتنه او بیا تولید کړئ. دا تاسو ته اجازه درکوي د دوه اړخیزو تجربو شمیر کم کړئ.
په هرصورت، د کار د لوی مقدار په صورت کې لاسي اسناد یو ستونزمن کار کیدی شي. دا هغه ځای دی چې د Comet.ml په څیر وسیلې راځي ترڅو تاسو سره په اتوماتيک ډول د ډیټاسیټونو ، کوډ بدلونونو ، تجربوي تاریخ ، او تولید ماډلونو کې مرسته وکړي ، پشمول ستاسو د ماډل په اړه کلیدي معلومات (هایپر پیرامیټرونه ، د ماډل فعالیت میټریکونه ، او د چاپیریال معلومات).
یو عصبي شبکه د کوچنیو بدلونونو لپاره خورا حساس کیدی شي، او دا به د ماډل فعالیت کې کمښت المل شي. ستاسو د کار تعقیب او مستند کول لومړی ګام دی چې تاسو کولی شئ خپل چاپیریال او ماډلینګ معیاري کولو لپاره واخلئ.