අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

මාස කිහිපයකට පෙර, Google වෙතින් අපගේ සගයන් වියදම් කළා on Kaggle සංවේදී තුළ ලබාගත් පින්තූර සඳහා වර්ගීකරණයක් නිර්මාණය කිරීමේ තරඟයක් ක්රීඩාව "ඉක්මන්, අඳින්න!" Yandex සංවර්ධක Roman Vlasov ඇතුළත් වූ කණ්ඩායම තරඟයේ සිව්වන ස්ථානයට පත්විය. ජනවාරි යන්ත්‍ර ඉගෙනීමේ පුහුණුවේදී, රෝමන් තම කණ්ඩායමේ අදහස්, වර්ගීකරණයේ අවසාන ක්‍රියාවට නැංවීම සහ ඔහුගේ විරුද්ධවාදීන්ගේ රසවත් භාවිතයන් බෙදා ගත්තේය.


- ආයුබෝවන් සියල්ලටම! මගේ නම රෝමා ව්ලසොව්, අද මම ඔබට ඉක්මන්, ඇඳීම ගැන කියන්නම්! ඩූඩල් හඳුනාගැනීමේ අභියෝගය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

අපේ කණ්ඩායමේ පස් දෙනෙක් හිටියා. මම ඒකාබද්ධ කිරීමේ කාල සීමාවට පෙර සම්බන්ධ විය. අපි අවාසනාවන්තයි, අපි ටිකක් කම්පා වුණා, නමුත් අපි මුදල් තනතුරෙන් සැලුණා, ඔවුන් රන් තනතුරෙන් කම්පා වුණා. ඒ වගේම අපි ගෞරවනීය සිව්වන ස්ථානය ගත්තා.

(තරඟය අතරතුර, යෝජිත දත්ත කට්ටලයේ එක් කොටසක පෙන්වා ඇති ප්‍රතිඵල මත පදනම්ව ගොඩනැගුණු ශ්‍රේණිගත කිරීමක කණ්ඩායම් නිරීක්ෂණය කරන ලදී. අවසාන ශ්‍රේණිගත කිරීම, අනෙක් අතට, දත්ත කට්ටලයේ තවත් කොටසක් මත සාදන ලදී. මෙය එසේ සිදු කෙරේ. තරඟයට සහභාගිවන්නන් ඔවුන්ගේ ඇල්ගොරිතම නිශ්චිත දත්ත වලට නොගැලපෙන බව.එබැවින්, අවසාන තරඟයේදී, ශ්‍රේණිගත කිරීම් අතර මාරු වන විට, ස්ථාන ටිකක් සොලවයි (ඉංග්‍රීසියෙන් සොලවන්න - මිශ්‍ර කිරීමට): වෙනත් දත්ත මත, ප්‍රතිඵලය හැරවිය හැක. වෙනස් විය යුතුය.රෝමන්ගේ කණ්ඩායම මුල් තුනේ පළමු ස්ථානයට පත් විය.මෙහිදී මුල් ස්ථාන තුනට මුදල් ත්‍යාග ප්‍රදානය කරන ලද බැවින් මුල් තුන මුදල්, මුදල් ශ්‍රේණිගත කිරීමේ කලාපය වේ.සෙලවීමෙන් පසු කණ්ඩායම දැනටමත් ඇත. සිව්වන ස්ථානය.එසේම අනෙක් කණ්ඩායමට ජයග්‍රහණය, රන් ස්ථානය අහිමි විය.- එඩ්.)

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

Evgeniy Babakhnin හට ග්‍රෑන්ඩ්මාස්ටර් කෙනෙක් ලැබීමත්, Ivan Sosin ට මාස්ටර් කෙනෙක් ලැබීමත්, Roman Soloviev ග්‍රෑන්ඩ්මාස්ටර් කෙනෙක් වීමත්, Alex Parinov මාස්ටර් කෙනෙක් වීමත්, මම විශේෂඥයෙක් වීමත්, දැන් මම දැනටමත් මාස්ටර් කෙනෙක් වීමත් නිසා තරඟය වැදගත් විය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

මොකක්ද මේ Quick, Draw කියන්නේ? මෙය Google වෙතින් වන සේවාවකි. Google හට AI ප්‍රචලිත කිරීමේ ඉලක්කය වූ අතර මෙම සේවාව සමඟ ස්නායුක ජාල ක්‍රියා කරන ආකාරය පෙන්වීමට අවශ්‍ය විය. ඔබ එහි ගොස්, අපි අඳින්න ක්ලික් කරන්න, එවිට ඔබට කියනු ලබන නව පිටුවක් දිස්වේ: සිග්සැග් එකක් අඳින්න, ඔබට මෙය කිරීමට තත්පර 20ක් තිබේ. ඔබ තත්පර 20 කින් සිග්සැග් ඇඳීමට උත්සාහ කරයි, උදාහරණයක් ලෙස මෙහි මෙන්. ඔබ සාර්ථක වුවහොත්, ජාලය පවසන්නේ එය සිග්සැග් එකක් වන අතර ඔබ ඉදිරියට යන්න. එවැනි පින්තූර හයක් පමණි.

ඔබ ඇදගත් දේ හඳුනා ගැනීමට Google ජාලය අපොහොසත් වුවහොත්, කාර්යය මත කුරුසයක් තබන ලදී. චිත්‍රයක් ජාලය විසින් හඳුනාගෙන තිබේද නැද්ද යන්න අනාගතයේදී අදහස් කරන්නේ කුමක්දැයි මම පසුව ඔබට කියමි.

මෙම සේවාව භාවිතා කරන්නන් තරමක් විශාල සංඛ්යාවක් එකතු කර ඇති අතර, පරිශීලකයන් විසින් ඇද ගන්නා ලද සියලුම පින්තූර ලොග් විය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

මිලියන 50 කට ආසන්න පින්තූර එකතු කිරීමට අපට හැකි විය. මෙයින්, අපගේ තරඟය සඳහා දුම්රිය සහ පරීක්ෂණ දිනය සකස් විය. මාර්ගය වන විට, පරීක්ෂණයේ දත්ත ප්‍රමාණය සහ පන්ති ගණන හේතුවක් සඳහා තද අකුරින් උද්දීපනය කර ඇත. මම ඒවා ගැන ටිකක් පසුව කියන්නම්.

දත්ත ආකෘතිය පහත පරිදි විය. මේවා හුදෙක් RGB රූප පමණක් නොව, දළ වශයෙන් කිවහොත්, පරිශීලකයා කළ සෑම දෙයකම ලඝු-සටහනකි. වචනය අපගේ ඉලක්කයයි, රට කේතය යනු ඩූඩලයේ කතුවරයා කොහි සිටද යන්නයි, කාල මුද්‍රාව යනු කාලයයි. හඳුනාගත් ලේබලය පෙන්වන්නේ ජාලය Google වෙතින් රූපය හඳුනා ගත්තාද නැද්ද යන්නයි. සහ ඇඳීම යනු අනුපිළිවෙලකි, පරිශීලකයා ලකුණු සමඟ අඳින වක්‍රයක ආසන්න කිරීමකි. සහ වේලාවන්. පින්තූරය ඇඳීම ආරම්භයේ සිටම කාලය මෙයයි.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

දත්ත ආකෘති දෙකකින් ඉදිරිපත් කරන ලදී. මෙය පළමු ආකෘතිය වන අතර දෙවැන්න සරල කර ඇත. ඔවුන් එතැන් සිට කාල නියමයන් කපා හැර කුඩා ලක්ෂ්‍ය කට්ටලයකින් මෙම ලක්ෂ්‍ය කුලකය ආසන්න කර ඇත. මේ සඳහා ඔවුන් භාවිතා කළා ඩග්ලස්-පෙකර් ඇල්ගොරිතම. ඔබට සරල රේඛාවක් ආසන්න වශයෙන් විශාල ලක්ෂ්‍ය සමූහයක් ඇත, නමුත් ඇත්ත වශයෙන්ම ඔබට මෙම රේඛාව ලකුණු දෙකකින් ආසන්න කළ හැකිය. ඇල්ගොරිතමයේ අදහස මෙයයි.

දත්ත පහත පරිදි බෙදා හැර ඇත. සෑම දෙයක්ම ඒකාකාරී ය, නමුත් සමහර පිටස්තර තිබේ. අපි ගැටලුව විසඳන විට, අපි එය දෙස බැලුවේ නැත. ප්රධාන දෙය නම් ඇත්ත වශයෙන්ම ස්වල්පයක් වූ පන්ති නොතිබීමයි, අපට බර නියැදි සහ දත්ත අධි සාම්පල කිරීමට සිදු නොවීය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

පින්තූර මොන වගේද? මෙය "ගුවන් යානය" පන්තිය වන අතර එය හඳුනාගත් සහ හඳුනා නොගත් ලේබල සහිත උදාහරණ වේ. ඔවුන්ගේ අනුපාතය 1 සිට 9 දක්වා කොහේ හරි විය. ඔබට පෙනෙන පරිදි, දත්ත තරමක් ඝෝෂාකාරී ය. එය ගුවන් යානයක් යැයි මම අනුමාන කරමි. ඔබ හඳුනා නොගැනීම දෙස බැලුවහොත්, බොහෝ අවස්ථාවලදී එය ශබ්දය පමණි. කවුරුහරි "ගුවන් යානය" ලිවීමට පවා උත්සාහ කළ නමුත් පෙනෙන විදිහට ප්රංශ භාෂාවෙන්.

බොහෝ සහභාගිවන්නන් හුදෙක් ජාලක ගෙන, මෙම රේඛා අනුපිළිවෙලින් RGB පින්තූර ලෙස දත්ත ඇද ඒවා ජාලයට විසි කළේය. මම දළ වශයෙන් එකම ආකාරයකින් ඇද ගත්තෙමි: මම වර්ණ මාලාවක් ගෙන, පළමු පේළිය එක් වර්ණයකින් ඇද ගත්තෙමි, එය මෙම තාලයේ ආරම්භයේ, අවසාන පේළිය තවත් එකක් සමඟ, එය තාලයේ අවසානයේ සහ ඒවා අතර විය. මම මේ පැලට් එක පාවිච්චි කරලා හැම තැනම interpolate කළා. මාර්ගය වන විට, මෙය ඔබ පළමු විනිවිදකයේ මෙන් අඳිනවාට වඩා හොඳ ප්‍රති result ලයක් ලබා දුන්නේය - කළු පැහැයෙන්.

අයිවන් සොසින් වැනි අනෙකුත් කණ්ඩායම් සාමාජිකයින් චිත්‍ර ඇඳීමට තරමක් වෙනස් ප්‍රවේශයන් උත්සාහ කළහ. එක් නාලිකාවකින් ඔහු සරලව අළු පැහැති පින්තූරයක් ඇන්ද අතර තවත් නාලිකාවකින් ඔහු සෑම පහරක්ම මුල සිට අග දක්වා 32 සිට 255 දක්වා අනුක්‍රමණයකින් ඇන්ද අතර තුන්වන නාලිකාවෙන් ඔහු 32 සිට 255 දක්වා වූ සියලුම පහරවල්වලට වඩා අනුක්‍රමයක් ඇන්දේය.

තවත් සිත්ගන්නා කරුණක් නම්, ඇලෙක්ස් පරිනොව් විසින් රටේ කේතය භාවිතයෙන් ජාලයට තොරතුරු උඩුගත කිරීමයි.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

තරඟයේදී භාවිතා කරන මෙට්‍රික් එක සාමාන්‍ය සාමාන්‍ය නිරවද්‍යතාවයයි. තරඟය සඳහා මෙම මෙට්රික් සාරය කුමක්ද? ඔබට පුරෝකථන තුනක් ලබා දිය හැකි අතර, මෙම තුනෙහි නිවැරදි පුරෝකථනයක් නොමැති නම්, ඔබට 0 ලැබේ. නිවැරදි එකක් තිබේ නම්, එහි අනුපිළිවෙල සැලකිල්ලට ගනී. තවද ඉලක්ක ප්‍රතිඵලය ඔබේ අනාවැකියේ අනුපිළිවෙලින් බෙදූ 1 ලෙස ගණන් කෙරේ. උදාහරණයක් ලෙස, ඔබ අනාවැකි කියන්නන් තිදෙනෙකු සෑදුවා, නිවැරදි එක පළමු එකයි, එවිට ඔබ 1 න් 1 න් බෙදා 1 ලබා ගන්න. පුරෝකථනය නිවැරදි නම් සහ එහි අනුපිළිවෙල 2 නම්, 1 න් 2 න් බෙදන්න, ඔබට 0,5 ලැබේ. හොඳයි, ආදිය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

දත්ත පෙර සැකසුම් සමඟ - පින්තූර අඳින්නේ කෙසේද සහ යනාදිය - අපි ටිකක් තීරණය කර ඇත්තෙමු. අපි භාවිතා කළ ගෘහ නිර්මාණ ශිල්පය කුමක්ද? අපි PNASNet, SENet වැනි මේද ගෘහ නිර්මාණ ශිල්පය සහ SE-Res-NeXt වැනි දැනටමත් සම්භාව්‍ය ගෘහනිර්මාණ භාවිතා කිරීමට උත්සාහ කළෙමු, ඒවා වැඩි වැඩියෙන් නව තරඟවලට පිවිසෙමින් තිබේ. ResNet සහ DenseNet ද එහි විය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

අපි මෙය ඉගැන්වූයේ කෙසේද? අප ගත් සියලුම මාදිලි ඉමේජ්නෙට් මත පූර්ව පුහුණුව ලබා ඇත. දත්ත විශාල ප්‍රමාණයක් ඇතත්, පින්තූර මිලියන 50 ක්, නමුත් තවමත්, ඔබ ඉමේජ්නෙට් මත පෙර පුහුණු වූ ජාලයක් ගතහොත්, ඔබ මුල සිටම එය පුහුණු කළාට වඩා හොඳ ප්‍රතිඵල පෙන්වයි.

අප භාවිතා කළ ඉගැන්වීම් ශිල්පීය ක්‍රම මොනවාද? මෙය Cosing Annealing with Warm Restarts, මම ටිකක් පසුව කතා කරන්නම්. මෙය මගේ මෑත තරඟ සියල්ලේම පාහේ භාවිතා කරන තාක්ෂණික ක්‍රමයක් වන අතර, ඔවුන් සමඟ හොඳ අවමයක් ලබා ගැනීම සඳහා ජාලක හොඳින් පුහුණු කිරීමට හැරේ.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

ඊළඟට සානුව මත ඉගෙනුම් අනුපාතය අඩු කරන්න. ඔබ ජාලය පුහුණු කිරීම ආරම්භ කරන්න, යම් ඉගෙනුම් අනුපාතයක් සකසන්න, එය ඉගැන්වීම දිගටම කරගෙන යන්න, සහ ඔබේ පාඩුව ක්රමයෙන් යම් අගයකට අභිසාරී වේ. ඔබ මෙය පරීක්ෂා කරන්න, උදාහරණයක් ලෙස, යුග දහයක් තිස්සේ පාඩුව කිසිසේත් වෙනස් වී නැත. ඔබ ඔබේ ඉගෙනීමේ අනුපාතය යම් අගයකින් අඩු කර දිගටම ඉගෙන ගන්න. එය නැවත මඳක් පහත වැටේ, අවම වශයෙන් අභිසාරී වන අතර, ඔබ නැවත ඉගෙනුම් අනුපාතය අඩු කරයි, සහ ඔබේ ජාලය අවසානයේ අභිසාරී වන තුරු.

ඊළඟට රසවත් තාක්ෂණයක්: ඉගෙනීමේ අනුපාතය දිරාපත් නොවන්න, කණ්ඩායම් ප්රමාණය වැඩි කරන්න. එම නමින්ම ලිපියක් ඇත. ඔබ ජාලයක් පුහුණු කරන විට, ඔබට ඉගෙනීමේ අනුපාතය අඩු කිරීමට අවශ්‍ය නැත, ඔබට කණ්ඩායම් ප්‍රමාණය වැඩි කළ හැකිය.

මෙම තාක්ෂණය, මාර්ගය වන විට, ඇලෙක්ස් Parinov විසින් භාවිතා කරන ලදී. ඔහු 408 ට සමාන කණ්ඩායමකින් ආරම්භ කළ අතර, ඔහුගේ ජාලය කිසියම් සානුවකට ළඟා වූ විට, ඔහු කණ්ඩායම් ප්‍රමාණය දෙගුණ කළේය.

ඇත්ත වශයෙන්ම, ඔහුගේ කණ්ඩායමේ ප්‍රමාණය කොපමණ අගයකට ළඟා වූවාද යන්න මට මතක නැත, නමුත් සිත්ගන්නා කරුණ නම් එකම තාක්ෂණය භාවිතා කළ කණ්ඩායම් Kaggle හි සිටීමයි, ඔවුන්ගේ කණ්ඩායම් ප්‍රමාණය 10000 ක් පමණ විය. මාර්ගය වන විට, ගැඹුරු ඉගෙනීම සඳහා නවීන රාමු, වැනි උදාහරණයක් ලෙස PyTorch, ඔබට මෙය ඉතා පහසුවෙන් කිරීමට ඉඩ සලසයි. ඔබ ඔබේ කණ්ඩායම ජනනය කර එය ජාලයට ඉදිරිපත් කරන්න, එය සම්පූර්ණයෙන් නොව, එය ඔබේ වීඩියෝ කාඩ්පතට ගැලපෙන පරිදි කැබලිවලට බෙදන්න, අනුක්‍රමය ගණනය කරන්න, සහ ඔබ සම්පූර්ණ කණ්ඩායම සඳහා අනුක්‍රමය ගණනය කළ පසු, යාවත්කාලීන කරන්න බර.

මාර්ගය වන විට, මෙම තරඟයට විශාල කණ්ඩායම් ප්‍රමාණ තවමත් ඇතුළත් කර ඇත, මන්ද දත්ත තරමක් ඝෝෂාකාරී වූ අතර විශාල කණ්ඩායම් ප්‍රමාණය ඔබට අනුක්‍රමණය වඩාත් නිවැරදිව ආසන්න කිරීමට උපකාරී විය.

ව්‍යාජ ලේබල් කිරීම ද භාවිතා කරන ලදී, බොහෝ දුරට රෝමන් සොලොවිව් විසින් භාවිතා කරන ලදී. ඔහු පරීක්ෂණයෙන් අඩක් පමණ දත්ත කණ්ඩායම් වශයෙන් සාම්පල ලබා ගත් අතර, එවැනි කණ්ඩායම් මත ජාලකය පුහුණු කළේය.

පින්තූරවල ප්‍රමාණය වැදගත් විය, නමුත් කාරණය නම් ඔබට බොහෝ දත්ත තිබේ, ඔබ දිගු කාලයක් පුහුණු කළ යුතු අතර ඔබේ පින්තූර ප්‍රමාණය තරමක් විශාල නම්, ඔබ ඉතා දිගු කාලයක් පුහුණු වනු ඇත. නමුත් මෙය ඔබගේ අවසාන වර්ගීකරණයේ ගුණාත්මක භාවයට බොහෝ දේ එකතු නොකළ නිසා යම් ආකාරයක වෙළඳාමක් භාවිතා කිරීම වටී. තවද අපි උත්සාහ කළේ ප්‍රමාණයෙන් විශාල නොවන පින්තූර පමණි.

ඒ සියල්ල ඉගෙන ගත්තේ කෙසේද? පළමුව, කුඩා ප්‍රමාණයේ පින්තූර ගන්නා ලදී, ඒවා මත යුග කිහිපයක් ක්‍රියාත්මක විය, මෙයට සෑහෙන කාලයක් ගත විය. ඉන්පසු විශාල ප්‍රමාණයේ පින්තූර ලබා දී, ජාලය පුහුණු කරන ලදී, පසුව ඊටත් වඩා, ඊටත් වඩා, එය මුල සිටම පුහුණු නොකිරීමට සහ වැඩි කාලයක් නාස්ති නොකිරීමට.

Optimizers ගැන. අපි SGD සහ Adam භාවිතා කළා. මේ ආකාරයෙන් තනි මාදිලියක් ලබා ගැනීමට හැකි විය, එය පොදු ප්‍රමුඛ පුවරුවේ 0,941-0,946 වේගයක් ලබා දුන්නේය, එය තරමක් හොඳයි.

ඔබ යම් ආකාරයකින් ආකෘති එකතු කළහොත්, ඔබට 0,951 ක් පමණ ලැබෙනු ඇත. ඔබ තවත් එක් තාක්ෂණයක් භාවිතා කරන්නේ නම්, අප ලබා ගත් ආකාරයටම ඔබට පොදු පුවරුවේ අවසාන ලකුණු 0,954 ලැබෙනු ඇත. නමුත් පසුව ඒ ගැන වැඩි විස්තර. ඊළඟට මම ඔබට කියන්නම් අපි ආකෘති එකලස් කළ ආකාරය සහ එවැනි අවසාන වේගයක් ලබා ගැනීමට අපි සමත් වූ ආකාරය.

මීළඟට මම Cosing Annealing with Warm Restarts හෝ Stochastic Gradient Descent with Warm Restarts ගැන කතා කරන්න කැමතියි. දළ වශයෙන්, ප්‍රතිපත්තිමය වශයෙන්, ඔබට ඕනෑම ප්‍රශස්තකරණයක් භාවිතා කළ හැකිය, නමුත් කාරණය මෙයයි: ඔබ එක් ජාලයක් පුහුණු කර ක්‍රමයෙන් එය අවම මට්ටමකට අභිසාරී වුවහොත්, සියල්ල හරි, ඔබට එක් ජාලයක් ලැබෙනු ඇත, එය යම් යම් වැරදි සිදු කරයි, නමුත් ඔබ එය ටිකක් වෙනස් ලෙස පුහුණු කළ හැකිය. ඔබ යම් මූලික ඉගෙනුම් අනුපාතයක් සකසා, මෙම සූත්‍රය අනුව එය ක්‍රමයෙන් අඩු කරනු ඇත. ඔබ එය පහත් කරන්න, ඔබේ ජාලය යම් අවම මට්ටමකට පැමිණේ, පසුව ඔබ බර ඉතිරි කර, නැවත පුහුණුව ආරම්භයේ තිබූ ඉගෙනුම් අනුපාතය සකසන්න, එමඟින් මෙම අවම මට්ටමෙන් කොහේ හෝ ඉහළට ගොස් නැවත ඔබේ ඉගෙනුම් අනුපාතය අඩු කරන්න.

මේ අනුව, ඔබට එකවර අවම කිහිපයක් වෙත පිවිසිය හැකිය, ඔබේ අලාභය එකතු හෝ අඩු වීම සමාන වේ. නමුත් ඇත්ත වශයෙන්ම මෙම බර සහිත ජාල ඔබේ දිනය මත විවිධ දෝෂ ලබා දෙනු ඇත. ඒවා සාමාන්‍යකරණය කිරීමෙන්, ඔබට යම් ආකාරයක ආසන්න අගයක් ලැබෙනු ඇති අතර, ඔබේ වේගය වැඩි වනු ඇත.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

අපි අපේ ආකෘති එකලස් කළ ආකාරය ගැන. ඉදිරිපත් කිරීම ආරම්භයේදීම, පරීක්ෂණයේ දත්ත ප්‍රමාණය සහ පන්ති ගණන කෙරෙහි අවධානය යොමු කරන ලෙස මම කීවෙමි. ඔබ පරීක්ෂණ කට්ටලයේ ඉලක්ක ගණනට 1 ක් එකතු කර පන්ති ගණනින් බෙදුවහොත්, ඔබට අංක 330 ලැබෙනු ඇත, මෙය සංසදයේ ලියා ඇත - පරීක්ෂණයේ පන්ති සමතුලිත බව. මෙය භාවිතා කළ හැකිය.

මෙය මත පදනම්ව, Roman Soloviev මෙට්‍රික් එකක් ඉදිරිපත් කළෙමු, අපි එය ප්‍රොක්සි ලකුණු ලෙස හැඳින්වුවෙමු, එය ප්‍රමුඛ පුවරුව සමඟ හොඳින් සම්බන්ධ විය. කාරණය වන්නේ: ඔබ අනාවැකියක් කරන්න, ඔබේ අනාවැකිකරුවන්ගෙන් ඉහළම 1 ගෙන එක් එක් පන්තිය සඳහා වස්තු ගණන ගණන් කරන්න. ඊළඟට, එක් එක් අගයෙන් 330 අඩු කර ලැබෙන නිරපේක්ෂ අගයන් එකතු කරන්න.

පහත අගයන් ලබා ගන්නා ලදී. මෙය අපට උපකාර කළේ ප්‍රමුඛ පුවරුවක් නිර්මාණය කිරීමට නොව, දේශීයව වලංගු කිරීමට සහ අපගේ කණ්ඩායම් සඳහා සංගුණක තෝරා ගැනීමටය.

සමූහයක් සමඟ ඔබට එවැනි වේගයක් ලබා ගත හැකිය. මට වෙන මොනවා කරන්නද? ඔබේ පරීක්ෂණයේ පන්ති සමතුලිත බවට තොරතුරු ඔබ භාවිතා කළේ යැයි සිතන්න.

සමතුලිතතාවය වෙනස් විය. ඔවුන්ගෙන් එක් උදාහරණයක් - පළමු ස්ථානය ගත් පිරිමි ළමයින්ගෙන් සමතුලිත වීම.

අපි මොනවද කළේ? අපගේ සමතුලිතතාවය තරමක් සරල විය, එය යෝජනා කළේ එව්ගනි බබක්නින් විසිනි. අපි මුලින්ම අපේ අනාවැකි ඉහළ 1 අනුව වර්ග කර ඔවුන්ගෙන් අපේක්ෂකයන් තෝරා ගත්තෙමු - එවිට පන්ති සංඛ්‍යාව 330 නොඉක්මවිය. නමුත් සමහර පන්ති සඳහා ඔබට අනාවැකි කියන්නන් 330කට වඩා අඩුවෙන් අවසන් වේ. හරි, අපි ඉහළම 2 සහ ඉහළම 3 අනුවද වර්ග කරමු. , සහ අපි අපේක්ෂකයින් ද තෝරා ගනිමු.

අපගේ සමතුලිතතාවය පළමු ස්ථානයේ සමතුලිතතාවයෙන් වෙනස් වූයේ කෙසේද? ඔවුන් පුනරාවර්තන ප්‍රවේශයක් භාවිතා කළ අතර, වඩාත් ජනප්‍රිය පන්තිය ගෙන එම පන්තියේ සම්භාවිතාව කුඩා සංඛ්‍යාවකින් අඩු කර එම පන්තිය තවදුරටත් ජනප්‍රිය නොවන තෙක්. අපි ඊළඟ ජනප්‍රියම පන්තියට ගියා. එබැවින් සියලුම පන්තිවල සංඛ්‍යාව සමාන වන තෙක් ඔවුන් ඒවා දිගටම පහත් කළහ.

සෑම කෙනෙකුම දුම්රිය ජාල සඳහා ප්ලස් හෝ ඍණ එක් ප්‍රවේශයක් භාවිතා කළ නමුත්, සෑම කෙනෙකුම තුලනය භාවිතා නොකළේය. සමතුලිතතාවය භාවිතා කිරීමෙන් ඔබට රත්‍රන් වලට යා හැකි අතර ඔබ වාසනාවන්ත නම් මුදල් වලට යා හැකිය.

දිනයක් පෙර සකසන්නේ කෙසේද? සෑම කෙනෙකුම දිනය, එකතු හෝ අඩු කිරීම, එකම ආකාරයකින් පෙර සැකසූහ - අතින් සාදන ලද විශේෂාංග සෑදීම, විවිධ ආඝාත වර්ණ සමඟ වේලාවන් කේතනය කිරීමට උත්සාහ කිරීම යනාදිය. 8 වැනි ස්ථානය ලබා ගත් Alexey Nozdrin-Plotnitsky, මේ ගැන කතා කළේය.

අතින් ලියන ලද ඇඳීම් වර්ගීකරණය. Yandex හි වාර්තා කරන්න

ඔහු එය වෙනස් ආකාරයකින් කළේය. ඔහු පැවසුවේ ඔබේ මේ සියලු අතින් සාදන ලද විශේෂාංග ක්‍රියා නොකරන බවත්, ඔබ එය කිරීමට අවශ්‍ය නොවන බවත්, ඔබේ ජාලය මේ සියල්ල තනිවම ඉගෙන ගත යුතු බවත්ය. ඒ වෙනුවට, ඔහු ඔබේ දත්ත පෙර සැකසූ ඉගෙනුම් මොඩියුල ඉදිරිපත් කළේය. ඔහු මුල් දත්ත ඒවාට පෙර සැකසීමකින් තොරව විසි කළේය - ලක්ෂ්‍ය ඛණ්ඩාංක සහ වේලාවන්.

ඉන්පසු ඔහු ඛණ්ඩාංක මත පදනම්ව වෙනස ලබා ගත් අතර කාලය මත පදනම්ව ඒ සියල්ල සාමාන්‍යකරණය කළේය. තවද ඔහු තරමක් දිගු අනුකෘතියක් ඉදිරිපත් කළේය. 1xn ප්‍රමාණයේ න්‍යාසයක් ලබා ගැනීම සඳහා ඔහු එයට 64D convolution කිහිප වතාවක් යෙදුවේය, එහිදී n යනු මුළු ලක්ෂ්‍ය සංඛ්‍යාව වන අතර, 64 සෑදී ඇත්තේ නාලිකා ගණන පිළිගන්නා ඕනෑම convolutional ජාලයක ස්තරය වෙත ප්‍රතිඵලයක් ලෙස ලැබෙන න්‍යාසය පෝෂණය කිරීම සඳහාය. - 64. ඔහු 64xn න්‍යාසයක් ලබා ගත්තේය, එවිට මෙයින් නාලිකා සංඛ්‍යාව 64 ට සමාන වන පරිදි යම් ප්‍රමාණයක ටෙන්සරයක් නිර්මාණය කිරීමට අවශ්‍ය විය. 0x32 ප්‍රමාණයේ ටෙන්සරය. ඔහුට 32x32 අවශ්‍ය වූයේ මන්දැයි මම නොදනිමි, එය එසේ සිදු විය. තවද මෙම ඛණ්ඩාංකයේදී ඔහු 32xn ප්‍රමාණයේ මෙම අනුකෘතියේ කොටසක් තැබීය. එබැවින් එය 32x64x32 ටෙන්සරයකින් අවසන් වූ අතර එය ඔබට තවදුරටත් ඔබේ සංක්‍රමණික ස්නායු ජාලයට ඇතුළත් කළ හැකිය. මට කියන්න ඕන වුනේ එච්චරයි.

මූලාශ්රය: www.habr.com

අදහස් එක් කරන්න