Bawo ni ẹlẹrọ agbara ṣe iwadi awọn nẹtiwọọki nkankikan ati atunyẹwo ti iṣẹ ọfẹ “Udacity: Intoro si TensorFlow fun Ikẹkọ Jin”

Ni gbogbo igbesi aye agbalagba mi, Mo ti jẹ ohun mimu agbara (rara, ni bayi a ko sọrọ nipa ohun mimu pẹlu awọn ohun-ini ṣiyemeji).

Emi ko nifẹ paapaa ni agbaye ti imọ-ẹrọ alaye, ati pe Emi ko le paapaa isodipupo matrices lori iwe kan. Ati pe Emi ko nilo eyi rara, ki o loye diẹ nipa awọn pato ti iṣẹ mi, Mo le pin itan iyanu kan. Mo ni ẹẹkan beere lọwọ awọn ẹlẹgbẹ mi lati ṣe iṣẹ naa ni iwe kaunti Excel kan, idaji ọjọ iṣẹ ti kọja, Mo lọ si ọdọ wọn, wọn joko ati ṣajọpọ data lori ẹrọ iṣiro, bẹẹni, lori iṣiro dudu lasan pẹlu awọn bọtini. O dara, iru awọn nẹtiwọọki nkankikan wo ni a le sọrọ nipa lẹhin eyi? .. Nitorina, Emi ko ni awọn ibeere pataki eyikeyi fun ibọmi ara mi ni agbaye ti IT. Ṣugbọn, bi wọn ṣe sọ, “o dara nibiti a ko si,” awọn ọrẹ mi bu eti mi nipa otitọ ti a ti pọ si, nipa awọn nẹtiwọọki nkankikan, nipa awọn ede siseto (paapaa nipa Python).

Ni awọn ọrọ o rọrun pupọ, ati pe Mo pinnu idi ti ko ṣe ni oye aworan idan yii lati le lo ni aaye iṣẹ ṣiṣe mi.

Ninu nkan yii, Emi yoo fo awọn igbiyanju mi ​​lati kọ awọn ipilẹ ti Python ati pin pẹlu rẹ awọn iwunilori mi ti iṣẹ TensorFlow ọfẹ lati ọdọ Udacity.

Bawo ni ẹlẹrọ agbara ṣe iwadi awọn nẹtiwọọki nkankikan ati atunyẹwo ti iṣẹ ọfẹ “Udacity: Intoro si TensorFlow fun Ikẹkọ Jin”

Ifihan

Lati bẹrẹ pẹlu, o tọ lati ṣe akiyesi pe lẹhin ọdun 11 ni ile-iṣẹ agbara, nigbati o ba mọ ati pe o le ṣe ohun gbogbo ati paapaa diẹ sii (gẹgẹbi awọn ojuse rẹ), kọ ẹkọ awọn ohun tuntun ti ipilẹṣẹ - ni apa kan, fa itara nla, ṣugbọn lori ekeji - yipada si irora ti ara "awọn jia ni ori mi."

Emi ko tun loye ni kikun gbogbo awọn imọran ipilẹ ti siseto ati ẹkọ ẹrọ, nitorinaa o ko yẹ ki o ṣe idajọ mi ni lile ju. Mo nireti pe nkan mi yoo jẹ iwunilori ati iwulo fun awọn eniyan bii mi ti o jinna si idagbasoke sọfitiwia.

Ṣaaju ki o to lọ si atunyẹwo iṣẹ-ẹkọ, Emi yoo sọ pe lati kawe rẹ iwọ yoo nilo o kere ju oye ti Python. O le ka kan tọkọtaya ti awọn iwe fun dummies (Mo ti tun bere a mu a dajudaju on Stepic, sugbon ko sibẹsibẹ mastered o patapata).

Ẹkọ TensorFlow funrararẹ kii yoo ni awọn iṣelọpọ idiju, ṣugbọn yoo jẹ dandan lati loye idi ti awọn ile-ikawe ṣe gbe wọle, bawo ni iṣẹ ṣe tumọ, ati idi ti ohun kan fi rọpo sinu rẹ.

Kini idi ti TensorFlow ati Udacity?

Ibi-afẹde akọkọ ti ikẹkọ mi ni ifẹ lati ṣe idanimọ awọn fọto ti awọn eroja fifi sori ẹrọ itanna nipa lilo awọn nẹtiwọọki nkankikan.

Mo yan TensorFlow nitori Mo gbọ nipa rẹ lati ọdọ awọn ọrẹ mi. Ati pe bi MO ṣe loye rẹ, iṣẹ-ẹkọ yii jẹ olokiki pupọ.

Mo gbiyanju lati bẹrẹ ẹkọ lati ọdọ osise naa ikẹkọ .

Ati lẹhinna Mo sare sinu awọn iṣoro meji.

  • Ọpọlọpọ awọn ohun elo ẹkọ wa, ati pe wọn wa ni oriṣiriṣi oriṣiriṣi. O nira pupọ fun mi lati ṣẹda o kere ju aworan pipe diẹ sii tabi kere si ti ipinnu iṣoro idanimọ aworan.
  • Pupọ julọ awọn nkan ti Mo nilo ko ti tumọ si ede Rọsia. O kan ṣẹlẹ pe Mo kọ German bi ọmọde ati ni bayi, bii ọpọlọpọ awọn ọmọ Soviet, Emi ko mọ boya German tabi Gẹẹsi. Dajudaju, ni gbogbo igbesi aye mi agbalagba, Mo gbiyanju lati kọ Gẹẹsi, ṣugbọn o wa ni nkan bi ninu aworan.

Bawo ni ẹlẹrọ agbara ṣe iwadi awọn nẹtiwọọki nkankikan ati atunyẹwo ti iṣẹ ọfẹ “Udacity: Intoro si TensorFlow fun Ikẹkọ Jin”

Lẹhin ti n walẹ ni ayika lori oju opo wẹẹbu osise, Mo rii awọn iṣeduro lati lọ nipasẹ ọkan ninu awọn meji lori ila- courses.

Bi mo ṣe loye rẹ, ikẹkọ lori Coursera ti san, ati iṣẹ naa Udacity: Intoro si TensorFlow fun Ẹkọ Jin o ṣee ṣe lati kọja “ọfẹ, iyẹn ni, lasan.”

dajudaju akoonu

Ẹkọ naa ni awọn ẹkọ 9.

Apá àkọ́kọ́ gan-an jẹ́ àbájáde, níbi tí wọn yóò ti sọ ìdí tí a fi nílò rẹ̀ ní ìlànà.

Ẹkọ #2 yipada lati jẹ ayanfẹ mi. O rọrun to lati ni oye ati tun ṣe afihan awọn iyalẹnu ti imọ-jinlẹ. Ni kukuru, ninu ẹkọ yii, ni afikun si alaye ipilẹ nipa awọn nẹtiwọọki neural, awọn olupilẹṣẹ ṣe afihan bi o ṣe le lo nẹtiwọọki nkankikan-Layer kan lati yanju iṣoro ti iyipada otutu lati Fahrenheit si Celsius.

Eyi jẹ apẹẹrẹ ti o han gbangba nitootọ. Mo tun joko nihin ni ironu bi o ṣe le wa pẹlu ati yanju iṣoro ti o jọra, ṣugbọn fun awọn ẹrọ ina mọnamọna nikan.

Laanu, Mo duro siwaju, nitori kikọ awọn nkan ti ko ni oye ni ede ti ko mọ jẹ ohun ti o nira pupọ. Ohun ti o gba mi ni ohun ti mo ri lori Habré translation ti yi dajudaju sinu Russian.

Itumọ naa ṣe pẹlu didara giga, awọn iwe ajako Colab ni a tun tumọ, nitorinaa Mo wo mejeeji atilẹba ati itumọ.

Ẹkọ No.. 3 jẹ, ni otitọ, aṣamubadọgba ti awọn ohun elo lati ikẹkọ TensorFlow osise. Ninu ikẹkọ yii, a lo nẹtiwọki neural multilayer lati kọ ẹkọ bi a ṣe le ṣe iyatọ awọn aworan ti awọn aṣọ (dataset MNIST Fashion).

Awọn ẹkọ No.. 4 to No.. 7 jẹ tun ẹya aṣamubadọgba ti awọn tutorial. Ṣugbọn nitori otitọ pe wọn ti ṣeto ni deede, ko si iwulo lati loye ọkọọkan ti ikẹkọ funrararẹ. Ninu awọn ẹkọ wọnyi a yoo sọ fun wa ni ṣoki nipa awọn nẹtiwọọki alaiṣe deede, bii o ṣe le mu deede ikẹkọ pọ si ati ṣafipamọ awoṣe naa. Ni akoko kanna, a yoo yanju iṣoro naa nigbakanna awọn ologbo ati awọn aja ni aworan.

Ẹkọ No.. 8 ni a patapata lọtọ dajudaju, nibẹ ni kan ti o yatọ olukọ, ati awọn dajudaju ara jẹ ohun sanlalu. Ẹkọ naa jẹ nipa jara akoko. Níwọ̀n bí n kò ti nífẹ̀ẹ́ sí i síbẹ̀, mo ṣe àyẹ̀wò rẹ̀ lọ́nà àkànṣe.

Eyi dopin pẹlu ẹkọ #9, eyiti o jẹ ifiwepe lati gba iṣẹ ọfẹ lori TensorFlow Lite.

Ohun ti o nifẹ ati ti o ko fẹran

Emi yoo bẹrẹ pẹlu awọn anfani:

  • Ẹkọ naa jẹ ọfẹ
  • Ẹkọ naa wa lori TensorFlow 2. Diẹ ninu awọn iwe-ọrọ ti Mo rii ati diẹ ninu awọn iṣẹ ikẹkọ lori Intanẹẹti wa lori TensorFlow 1. Emi ko mọ boya iyatọ nla wa, ṣugbọn o dara lati kọ ẹkọ lọwọlọwọ.
  • Awọn olukọ ti o wa ninu fidio ko ni didanubi (botilẹjẹpe ni ẹya ara ilu Rọsia wọn ko ka ni idunnu bi ninu atilẹba)
  • Ẹkọ naa ko gba akoko pupọ
  • Ẹkọ naa ko jẹ ki o ni ibanujẹ tabi ainireti. Awọn iṣẹ-ṣiṣe ni iṣẹ-ẹkọ jẹ rọrun ati pe ofiri nigbagbogbo wa ni irisi Colab pẹlu ojutu to pe ti nkan ko ba han (ati idaji ti o dara ti awọn iṣẹ-ṣiṣe ko han si mi)
  • Ko si ye lati fi sori ẹrọ ohunkohun, gbogbo awọn iṣẹ yàrá ti papa le ṣee ṣe ni ẹrọ aṣawakiri

Bayi awọn konsi:

  • Nibẹ ni o wa Oba ko si Iṣakoso ohun elo. Ko si awọn idanwo, ko si awọn iṣẹ-ṣiṣe, ko si nkankan lati ṣayẹwo bakan ti iṣakoso iṣẹ-ẹkọ naa
  • Kii ṣe gbogbo awọn iwe akọsilẹ mi ṣiṣẹ bi wọn ṣe yẹ. Mo ro pe ninu ẹkọ kẹta ti ẹkọ atilẹba ni Gẹẹsi Colab n jabọ aṣiṣe kan ati pe Emi ko mọ kini lati ṣe pẹlu rẹ
  • Rọrun lati wo lori kọnputa nikan. Boya Emi ko loye rẹ ni kikun, ṣugbọn Emi ko le rii ohun elo Udacity lori foonuiyara mi. Ati pe ẹya alagbeka ti aaye naa ko ṣe idahun, iyẹn ni, o fẹrẹ to gbogbo agbegbe iboju ti tẹdo nipasẹ akojọ aṣayan lilọ kiri, ṣugbọn lati rii akoonu akọkọ o nilo lati yi lọ si apa ọtun kọja agbegbe wiwo. Bakannaa, fidio ko le wo lori foonu. O ko le rii ohunkohun gaan loju iboju ti o kan ju awọn inṣi 6 lọ.
  • Diẹ ninu awọn ohun ninu papa ti wa ni chewed lori igba pupọ, sugbon ni akoko kanna, awọn gan pataki ohun lori awọn convolutional nẹtiwọki ara wọn ko ba wa ni lenu soke ninu papa. Emi ko tun loye idi gbogbogbo ti diẹ ninu awọn adaṣe (fun apẹẹrẹ, kini Max Pooling jẹ fun).

Akopọ

Nitootọ o ti gboju pe iyanu ko ṣẹlẹ. Ati lẹhin ipari ẹkọ kukuru yii, ko ṣee ṣe lati loye nitootọ bii awọn nẹtiwọọki nkankikan ṣe n ṣiṣẹ.

Nitoribẹẹ, lẹhin eyi Emi ko ni anfani lati yanju iṣoro mi funrararẹ pẹlu ipinya awọn fọto ti awọn iyipada ati awọn bọtini ni awọn ẹrọ iyipada.

Ṣugbọn lapapọ dajudaju jẹ iwulo. O fihan kini awọn nkan le ṣee ṣe pẹlu TensorFlow ati itọsọna wo ni lati mu atẹle.

Mo ro pe Mo nilo akọkọ lati kọ ẹkọ awọn ipilẹ ti Python ati ka awọn iwe ni Ilu Rọsia nipa bii awọn nẹtiwọọki neural ṣiṣẹ, ati lẹhinna mu TensorFlow.

Ni ipari, Emi yoo fẹ lati sọ dupẹ lọwọ awọn ọrẹ mi fun titari mi lati kọ nkan akọkọ lori Habr ati ṣe iranlọwọ fun mi lati ṣe ọna kika rẹ.

PS Emi yoo ni idunnu lati rii awọn asọye rẹ ati eyikeyi atako to wulo.

orisun: www.habr.com

Fi ọrọìwòye kun