اعصابي نيٽ ورڪ. هي سڀ ڪيڏانهن وڃي رهيو آهي؟

مضمون ٻن حصن تي مشتمل آهي:

  1. ڪجھ نيٽ ورڪ آرڪيٽيڪچرز جو مختصر بيان تصويرن ۾ اعتراض جي ڳولا لاءِ ۽ تصويرن جي ڀاڱي ۾ مون لاءِ وسيلن جي سڀ کان وڌيڪ سمجھڻ واري لنڪ سان. مون ڪوشش ڪئي وڊيو وضاحتون ۽ ترجيحي طور روسي ۾.
  2. ٻيو حصو نيورل نيٽ ورڪ تعميرات جي ترقي جي هدايت کي سمجهڻ جي ڪوشش آهي. ۽ انهن تي ٻڌل ٽيڪنالاجيون.

اعصابي نيٽ ورڪ. هي سڀ ڪيڏانهن وڃي رهيو آهي؟

شڪل 1 - سمجھڻ نيورل نيٽ ورڪ آرڪيٽيڪچر آسان ناهي

اهو سڀ هڪ Android فون تي اعتراض جي درجه بندي ۽ ڳولڻ لاء ٻه ڊيمو ايپليڪيشن ٺاهڻ شروع ڪيو:

  • پوئتي-آخر Demo، جڏهن ڊيٽا سرور تي پروسيس ڪئي ويندي آهي ۽ فون ڏانهن منتقل ڪئي ويندي آهي. بيئر جي ٽن قسمن جي تصويري درجه بندي: ناسي، ڪارو ۽ ٽيڊي.
  • اڳيون-آخر Demoجڏهن ڊيٽا پاڻ فون تي پروسيس ڪئي ويندي آهي. ٽن قسمن جي شين جي چڪاس (آبجڪٽ جي سڃاڻپ): هيزلنٽ، انجير ۽ تاريخون.

تصوير جي درجه بندي جي ڪمن جي وچ ۾ فرق آهي، هڪ تصوير ۾ اعتراض ڳولڻ ۽ تصوير جي تقسيم. تنهن ڪري، اهو معلوم ڪرڻ جي ضرورت هئي ته ڪهڙي نيورل نيٽ ورڪ آرڪيٽيڪچر تصويرن ۾ شيون ڳوليندا آهن ۽ ڪهڙا حصا ڪري سگهن ٿا. مون کي آرڪيٽيڪچر جا هيٺيان مثال مليا آهن جن سان منهنجي لاءِ وسيلن جي سڀ کان وڌيڪ سمجھڻ وارا لنڪ آهن:

  • آر-سي اين اين تي ٻڌل فن تعمير جو هڪ سلسلو (Rعلائقن سان Cارتقا Neural Networks خاصيتون): R-CNN، فاسٽ R-CNN، تيز آر-سي اين اين, ماسڪ R-CNN. ھڪڙي تصوير ۾ ھڪڙي اعتراض کي ڳولڻ لاء، بائونڊنگ باڪس مختص ڪيا ويا آھن ريجن پروپوزل نيٽورڪ (RPN) ميڪانيزم استعمال ڪندي. شروعات ۾، RPN جي بدران سست چونڊيل ڳولا ميڪانيزم استعمال ڪيو ويو. پوءِ منتخب ٿيل محدود علائقن کي ڪلاسيڪيشن لاءِ روايتي نيورل نيٽ ورڪ جي ان پٽ تي کارايو ويندو آهي. R-CNN آرڪيٽيڪچر واضح طور تي "لاء" لوپس کي محدود علائقن تي، ڪل 2000 تائين هلائي ٿو AlexNet اندروني نيٽ ورڪ ذريعي. واضح "لاء" لوپ تصوير جي پروسيسنگ جي رفتار کي سست ڪري ٿو. اندروني نيورل نيٽ ورڪ ذريعي هلندڙ واضح لوپس جو تعداد آرڪيٽيڪچر جي هر نئين ورزن سان گهٽجي ٿو، ۽ رفتار کي وڌائڻ ۽ ماسڪ R-CNN ۾ آبجیکٹ سيگمينٽيشن سان اعتراض جي ڳولا جي ڪم کي تبديل ڪرڻ لاءِ درجنوں ٻيون تبديليون ڪيون ويون آهن.
  • YOLO (You Oنڪو Lاوکو Once) پهريون نيورل نيٽ ورڪ آهي جيڪو موبائل ڊوائيسز تي حقيقي وقت ۾ شيون سڃاڻي ٿو. مخصوص خصوصيت: هڪ رن ۾ شيون ڌار ڪرڻ (صرف هڪ ڀيرو ڏسو). اهو آهي، YOLO فن تعمير ۾ ڪو به واضح "لاء" لوپ نه آهن، ڇو ته نيٽورڪ جلدي ڪم ڪري ٿو. مثال طور، هي قياس: NumPy ۾، جڏهن ميٽرڪس سان آپريشن ڪيو وڃي ٿو، اتي ڪو به واضح "لاء" لوپ نه آهن، جيڪي NumPy ۾ سي پروگرامنگ ٻولي ذريعي آرڪيٽيڪچر جي هيٺين سطح تي لاڳو ڪيا ويا آهن. YOLO اڳئين بيان ڪيل ونڊوز جي گرڊ استعمال ڪري ٿو. هڪ ئي شئي کي ڪيترن ئي ڀيرا بيان ڪرڻ کان روڪڻ لاءِ، ونڊو اوورليپ ڪوفيشينٽ (IoU) استعمال ڪيو ويندو آهي. Iچونڪ oڏنل Union). هي فن تعمير هڪ وسيع رينج تي هلندي آهي ۽ اعلي آهي مضبوطي: هڪ ماڊل فوٽوگرافي تي تربيت ڪري سگهجي ٿو پر اڃا به هٿ سان ٺهيل پينٽنگن تي سٺو ڪم ڪري سگهي ٿو.
  • ايس ايم ڊي (Sسڏڪا Sگرم ملٽي باڪس Detector) - YOLO آرڪيٽيڪچر جا سڀ کان ڪامياب ”هيڪس“ استعمال ڪيا ويا آهن (مثال طور، غير وڌ کان وڌ دٻاءُ) ۽ نيورل نيٽ ورڪ کي تيز ۽ وڌيڪ صحيح طريقي سان ڪم ڪرڻ لاءِ شامل ڪيو ويو آهي. مخصوص خصوصيت: تصوير جي پرامڊ تي ونڊوز جي ڏنل گرڊ (ڊفالٽ باڪس) کي استعمال ڪندي شين کي هڪ رن ۾ ڌار ڪرڻ. تصوير جي پرامڊ کي مسلسل ڪنوولوشن ۽ پولنگ آپريشنز ذريعي ڪنووليشن ٽينسر ۾ انڪوڊ ڪيو ويو آهي (وڌ کان وڌ پولنگ آپريشن سان، فضائي طول و عرض گھٽجي ويندو آهي). هن طريقي سان، ٻئي وڏيون ۽ ننڍيون شيون هڪ نيٽ ورڪ ۾ طئي ٿيل آهن.
  • موبائل ايس ايس ڊي (موبائلNetV2+ ايس ايم ڊي) ٻن نيورل نيٽ ورڪ آرڪيٽيڪچر جو مجموعو آهي. پهريون نيٽ ورڪ MobileNetV2 جلدي ڪم ڪري ٿو ۽ سڃاڻپ جي درستگي وڌائي ٿو. MobileNetV2 استعمال ڪيو ويو بدران VGG-16، جيڪو اصل ۾ استعمال ڪيو ويو اصل مضمون. ٻيو SSD نيٽورڪ تصوير ۾ شيون جي جڳھ کي طئي ڪري ٿو.
  • SqueezeNet - هڪ تمام ننڍڙو پر درست نيورل نيٽ ورڪ. پاڻ طرفان، اهو اعتراض جي ڳولا جو مسئلو حل نٿو ڪري. بهرحال، اهو مختلف فن تعمير جي ميلاپ ۾ استعمال ڪري سگهجي ٿو. ۽ موبائل ڊوائيسز ۾ استعمال ڪيو. خاص خصوصيت اها آهي ته ڊيٽا کي پهريون ڀيرو چار 1×1 ڪنووليشنل فلٽرن ۾ دٻايو ويندو آهي ۽ پوءِ ان کي وڌايو ويندو آهي چار 1×1 ۽ چار 3×3 ڪنووليشنل فلٽرن ۾. ڊيٽا جي ڪمپريشن جي توسيع جي هڪ اهڙي قسم کي "فائر ماڊل" سڏيو ويندو آهي.
  • ڊيپ ليب (Semantic Image Segmentation with Deep Convolutional Nets) - تصوير ۾ شين جي ورهاست. آرڪيٽيڪچر جي هڪ خاص خصوصيت ڊليٽ ٿيل ڪنووليشن آهي، جيڪا مقامي ريزوليوشن کي محفوظ ڪري ٿي. ان کان پوءِ نتيجن جي پوسٽ پروسيسنگ اسٽيج کي استعمال ڪندي گرافڪ امڪاني ماڊل (مشروط بي ترتيب واري فيلڊ) استعمال ڪيو ويندو آهي، جيڪو توهان کي ڀاڱي ۾ ننڍڙو شور ختم ڪرڻ ۽ ٽڪڙي تصوير جي معيار کي بهتر ڪرڻ جي اجازت ڏئي ٿو. نامڪمل نالو جي پويان "گرافيڪل امڪاني ماڊل" هڪ روايتي گاسي فلٽر لڪائيندو آهي، جيڪو پنجن پوائنٽن جي لڳ ڀڳ آهي.
  • ڊوائيس کي سمجهڻ جي ڪوشش ڪئي RefineDet (اڪيلو شاٽ عارضي ڪريوآبجیکٹ لاءِ نيورل نيٽورڪ تفصيلection)، پر مون کي گهڻو سمجھ ۾ نه آيو.
  • مون اهو پڻ ڏٺو ته "توجه" ٽيڪنالاجي ڪيئن ڪم ڪري ٿي: وڊيو 1, وڊيو 2, وڊيو 3. "توجه" فن تعمير جي هڪ خاص خصوصيت تصوير ۾ وڌندڙ ڌيان جي علائقن جي خودڪار چونڊ آهي (RoI، Rايجادون of Interest) هڪ نيورل نيٽ ورڪ استعمال ڪندي جنهن کي Attention Unit سڏيو ويندو آهي. وڌايل توجه جا علائقا بائونڊنگ باڪس سان ملندڙ جلندڙ آهن، پر انهن جي برعڪس، اهي عڪس ۾ مقرر نه آهن ۽ ٿي سگهي ٿو ته انهن جون حدون مبهم هجن. ان کان پوء، وڌندڙ ڌيان وارن علائقن مان، نشانيون (خصوصيتون) الڳ ٿي ويا آهن، جيڪي "فيڊ" آهن انهن کي بار بار نيورل نيٽ ورڪن ڏانهن آرڪيٽيڪچر سان. LSDM، GRU يا وينلا آر اين اين. بار بار نيورل نيٽ ورڪ هڪ ترتيب ۾ خاصيتن جي رشتي جو تجزيو ڪرڻ جي قابل آهن. بار بار نيورل نيٽ ورڪ شروع ۾ استعمال ڪيا ويا متن کي ٻين ٻولين ۾ ترجمو ڪرڻ لاءِ، ۽ ھاڻي ترجمي لاءِ متن ڏانهن تصويرون и تصوير ڏانهن متن.

جيئن ته اسان انهن فن تعمير کي ڳوليندا آهيون مون سمجهيو ته مون کي ڪجهه به نه ٿو سمجهي. ۽ اهو نه آهي ته منهنجي اعصابي نيٽ ورڪ کي ڌيان ڏيڻ واري ميڪانيزم سان مسئلو آهي. انهن سڀني آرڪيٽيڪچر جي تخليق ڪجهه قسم جي وڏي هيڪاٿون وانگر آهي، جتي ليکڪ هيڪس ۾ مقابلو ڪندا آهن. هيڪ هڪ مشڪل سافٽ ويئر جي مسئلي جو تڪڙو حل آهي. اهو آهي، انهن سڀني فن تعمير جي وچ ۾ ڪو به ظاهر ۽ سمجھڻ وارو منطقي تعلق نه آهي. اهو سڀ جيڪو انهن کي متحد ڪري ٿو اهو سڀ کان ڪامياب هيڪس جو هڪ سيٽ آهي جيڪو اهي هڪ ٻئي کان قرض وٺندا آهن، گڏوگڏ سڀني لاءِ هڪ عام بند-لوپ convolution آپريشن (غلطي پٺڀرائي، پٺڀرائي). نه نظام سوچڻ! اهو واضح ناهي ته ڇا تبديل ڪجي ۽ موجوده ڪاميابين کي ڪيئن بهتر ڪجي.

هيڪس جي وچ ۾ منطقي ڪنيڪشن جي کوٽ جي نتيجي ۾، انهن کي ياد رکڻ ۽ عملي طور تي لاڳو ڪرڻ تمام ڏکيو آهي. هي علم ورهايل آهي. بهترين طور تي، ڪجهه دلچسپ ۽ اڻڄاتل لمحن کي ياد ڪيو وڃي ٿو، پر گهڻو ڪري جيڪي سمجهي ۽ ناقابل سمجهي ٿو، انهن مان ڪجهه ڏينهن اندر ياداشت کان غائب ٿي ويندا آهن. اهو سٺو ٿيندو جيڪڏهن هڪ هفتي ۾ توهان گهٽ ۾ گهٽ فن تعمير جو نالو ياد ڪريو. پر ڪيترائي ڪلاڪ ۽ ان کان سواءِ ڪم ڪرڻ جا ڏينهن به آرٽيڪل پڙهڻ ۽ جائزو وٺندڙ وڊيوز ڏسڻ ۾ گذري ويا!

اعصابي نيٽ ورڪ. هي سڀ ڪيڏانهن وڃي رهيو آهي؟

شڪل 2 - نيورل نيٽ ورڪ جو زو

سائنسي مضمونن جا اڪثر ليکڪ، منهنجي ذاتي راءِ ۾، هر ممڪن ڪوشش ڪندا آهن ته جيئن پڙهندڙن کي هي ٽڪڙي ڄاڻ به نه سمجهي. پر حصو وٺندڙ جملا ڏهن لائنن جي جملن ۾ فارمولن سان جيڪي ”ٿلي هوا مان ڪڍيا ويا آهن“ هڪ الڳ مضمون لاءِ موضوع آهن (مسئلو شايع ڪرڻ يا تباهه ڪرڻ).

انهي سبب لاء، ضروري آهي ته معلومات کي منظم ڪرڻ جي ضرورت آهي نيورل نيٽ ورڪ استعمال ڪندي، ۽ اهڙيء طرح، سمجھڻ ۽ يادگار جي معيار کي وڌايو. تنهن ڪري، انفرادي ٽيڪنالاجي جي تجزيي جو بنيادي موضوع ۽ مصنوعي نيورل نيٽ ورڪ جي تعميرات هيٺ ڏنل ڪم هو: معلوم ڪريو ته اهو سڀ ڪٿي وڃي رهيو آهي، ۽ نه ڪنهن مخصوص نيورل نيٽ ورڪ جي ڊوائيس الڳ الڳ.

هي سڀ ڪيڏانهن وڃي رهيو آهي؟ مکيه نتيجا:

  • گذريل ٻن سالن ۾ مشين سکيا جي شروعاتن جو تعداد تيزيءَ سان ڪري پيو. ممڪن سبب: "خرابي نيٽ ورڪ هاڻي ڪجهه نوان نه آهن."
  • ڪو به ماڻهو هڪ سادي مسئلو حل ڪرڻ لاء ڪم ڪندڙ نيورل نيٽورڪ ٺاهي سگهي ٿو. ائين ڪرڻ لاءِ ”ماڊل زو“ مان تيار ٿيل ماڊل وٺو ۽ نيورل نيٽ ورڪ جي آخري پرت کي تربيت ڏيو (منتقلي سکيا) کان تيار ڪيل ڊيٽا تي گوگل ڊيٽا سيٽ ڳولا يا مان 25 هزار ڪيگل ڊيٽا سيٽ مفت ۾ بادل Jupyter نوٽ بڪ.
  • نيورل نيٽ ورڪ جي وڏي ٺاهيندڙن ٺاهڻ شروع ڪيو "ماڊل زوز" (ماڊل زو). انهن کي استعمال ڪندي توهان جلدي هڪ تجارتي ايپليڪيشن ٺاهي سگهو ٿا: TF حب TensorFlow لاء، ايم ايم ڊي جاچ PyTorch لاءِ، ڊيڪٽرون ڪيفي 2 لاءِ زنجير-ماڊل زو چينر ۽ لاء другие.
  • نيورل نيٽ ورڪ ڪم ڪري رهيا آهن حقيقي وقت (حقيقي وقت) موبائل ڊوائيسز تي. 10 کان 50 فريم في سيڪنڊ کان.
  • فونن ۾ نيورل نيٽ ورڪ جو استعمال (TF Lite)، برائوزرن ۾ (TF.js) ۽ ان ۾ گهريلو سامان (IoT، Iانٽرنيٽ of Tهنگ). خاص طور تي انهن فونن ۾ جيڪي اڳ ۾ ئي هارڊويئر ليول تي نيورل نيٽ ورڪ کي سپورٽ ڪن ٿا (نيرل ايڪسيليٽر).
  • ”هر ڊوائيس، ڪپڙا جو سامان، ۽ شايد کاڌو به هوندو IP-v6 پتو ۽ هڪ ٻئي سان رابطو ڪريو "- سيبسٽين ٿرون.
  • مشيني سکيا تي اشاعتن جو تعداد وڌڻ شروع ڪيو آھي مور جي قانون کان وڌيڪ (هر ٻن سالن ۾ ٻيڻو) 2015 کان وٺي. ظاهر آهي، اسان کي مضمونن جي تجزيي لاءِ نيورل نيٽ ورڪ جي ضرورت آهي.
  • هيٺيون ٽيڪنالاجيون مقبوليت حاصل ڪري رهيا آهن:
    • پائي ٽيچ - مقبوليت تيزي سان وڌي رهي آهي ۽ لڳي ٿو TensorFlow کي ختم ڪرڻ.
    • هائپرپراميٽر جي خودڪار چونڊ خودڪار ايم ايل - مقبوليت آساني سان وڌي رهي آهي.
    • درستي ۾ بتدريج گھٽتائي ۽ حساب جي رفتار ۾ اضافو: مبهم منطق, algorithms وڌائڻ, غير درست (تقريبن) حساب، مقدار (جڏهن نيورل نيٽ ورڪ جي وزن کي انٽيجرز ۽ مقدار ۾ تبديل ڪيو وڃي ٿو)، نيورل تيز ڪندڙ.
    • ترجمو متن ڏانهن تصويرون и تصوير ڏانهن متن.
    • خلق وڊيو مان XNUMXD شيون، هاڻي حقيقي وقت ۾.
    • DL بابت بنيادي شيء اها آهي ته اتي تمام گهڻو ڊيٽا آهي، پر ان کي گڏ ڪرڻ ۽ ليبل ڪرڻ آسان ناهي. تنهن ڪري، مارڪ اپ خودڪار ترقي ڪري رهيو آهي (خودڪار تشريح) نيورل نيٽ ورڪ استعمال ڪندي نيورل نيٽ ورڪن لاءِ.
  • نيورل نيٽ ورڪ سان، ڪمپيوٽر سائنس اوچتو ٿي ويو تجرباتي سائنس ۽ اٿيو reproducibility بحران.
  • آئي ٽي پيسا ۽ نيورل نيٽ ورڪ جي مقبوليت هڪ ئي وقت سامهون آئي جڏهن ڪمپيوٽنگ مارڪيٽ جي قيمت بڻجي وئي. معيشت سون ۽ ڪرنسي جي معيشت کان تبديل ٿي رهي آهي سون-ڪرنسي-ڪمپيوٽنگ. تي منهنجو مضمون ڏسو اقتصادي طبعيات ۽ آئي ٽي پئسن جي ظاهر ٿيڻ جو سبب.

آهستي آهستي هڪ نئون ظاهر ٿئي ٿو ML/DL پروگرامنگ جو طريقو (مشين لرننگ ۽ ڊيپ لرننگ)، جيڪو پروگرام جي نمائندگي ڪرڻ تي مبني آهي تربيت يافته نيورل نيٽ ورڪ ماڊلز جي سيٽ جي طور تي.

اعصابي نيٽ ورڪ. هي سڀ ڪيڏانهن وڃي رهيو آهي؟

شڪل 3 - ML/DL نئين پروگرامنگ جي طريقي جي طور تي

بهرحال، اهو ڪڏهن به ظاهر نه ٿيو نيورل نيٽ ورڪ جو نظريو، جنهن جي اندر توهان سوچي سگهو ٿا ۽ منظم طريقي سان ڪم ڪري سگهو ٿا. جنهن کي هاڻي ”نظريو“ چئبو آهي، اهو دراصل تجرباتي، هوريسٽڪ الگورٿمز آهي.

منهنجي ۽ ٻين وسيلن جا لنڪ:

Спасибо за внимание!

جو ذريعو: www.habr.com

تبصرو شامل ڪريو