Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Nesen atbrÄ«vots raksts, kas liecina par labu tendenci maŔīnmācÄ«bā pēdējos gados. ÄŖsumā: pēdējo divu gadu laikā maŔīnmācÄ«bas jaunuzņēmumu skaits ir strauji samazinājies.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?
Nu. ApskatÄ«sim ā€œvai burbulis ir pārsprādzisā€, ā€œkā turpināt dzÄ«votā€ un parunāsim par to, no kurienes vispār rodas Å”is Ä·ipars.

Vispirms parunāsim par to, kas bija Ŕīs lÄ«knes pastiprinātājs. No kurienes viņa nāca? Viņi droÅ”i vien visu atcerēsies uzvara maŔīnmācÄ«ba 2012. gadā ImageNet konkursā. Galu galā Å”is ir pirmais globālais pasākums! Bet patiesÄ«bā tas tā nav. Un lÄ«knes izaugsme sākas nedaudz agrāk. Es to sadalÄ«tu vairākos punktos.

  1. 2008. gadā parādÄ«jās termins ā€œlielie datiā€. Sākās Ä«stie produkti parādās kopÅ” 2010. Lielie dati ir tieÅ”i saistÄ«ti ar maŔīnmācÄ«Å”anos. Bez lielajiem datiem nav iespējama stabila tobrÄ«d pastāvoÅ”o algoritmu darbÄ«ba. Un tie nav neironu tÄ«kli. LÄ«dz 2012. gadam neironu tÄ«kli bija nelielas minoritātes Ä«paÅ”ums. Bet tad sāka darboties pavisam citi algoritmi, kas pastāvēja gadiem vai pat gadu desmitiem: SVM(1963,1993, XNUMX), NejauÅ”ais mežs (1995), AdaBoost (2003),... To gadu starta uzņēmumi galvenokārt ir saistÄ«ti ar strukturētu datu automātisku apstrādi: kases aparāti, lietotāji, reklāma, daudz kas cits.

    Šī pirmā viļņa atvasinājums ir ietvaru kopums, piemēram, XGBoost, CatBoost, LightGBM utt.

  2. 2011.-2012.gadā konvolucionālie neironu tÄ«kli uzvarēja vairākos attēlu atpazÄ«Å”anas konkursos. To faktiskā izmantoÅ”ana nedaudz aizkavējās. Es teiktu, ka masveidā nozÄ«mÄ«gi jaunuzņēmumi un risinājumi sāka parādÄ«ties 2014. gadā. Bija vajadzÄ«gi divi gadi, lai saprastu, ka neironi joprojām darbojas, lai izveidotu ērtus ietvarus, kurus varētu uzstādÄ«t un palaist saprātÄ«gā laikā, izstrādātu metodes, kas stabilizētu un paātrinātu konverÄ£ences laiku.

    KonvolÅ«cijas tÄ«kli ļāva atrisināt datorredzes problēmas: attēlu un objektu klasifikācija attēlā, objektu noteikÅ”ana, objektu un cilvēku atpazÄ«Å”ana, attēla uzlaboÅ”ana utt.

  3. 2015-2017. Algoritmu un projektu uzplaukums, kuru pamatā ir atkārtoti tÄ«kli vai to analogi (LSTM, GRU, TransformerNet utt.). Ir parādÄ«juÅ”ies labi funkcionējoÅ”i runas pārveidoÅ”anas algoritmi un maŔīntulkoÅ”anas sistēmas. Tie ir daļēji balstÄ«ti uz konvolucionālajiem tÄ«kliem, lai iegÅ«tu pamata funkcijas. Daļēji tāpēc, ka mēs iemācÄ«jāmies savākt patieŔām lielas un labas datu kopas.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

"Vai burbulis ir pārsprādzis? Vai ažiotāža ir pārkarsusi? Vai viņi nomira kā blokķēde?
Citādi! Rīt Siri pārtrauks strādāt ar jūsu tālruni, un parīt Tesla nezinās atŔķirību starp pagriezienu un ķenguru.

Neironu tīkli jau darbojas. Tie ir desmitiem ierīču. Tie patieŔām ļauj nopelnīt naudu, mainīt tirgu un pasauli sev apkārt. Hype izskatās nedaudz savādāk:

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

VienkārÅ”i neironu tÄ«kli vairs nav kaut kas jauns. Jā, daudziem cilvēkiem ir lielas cerÄ«bas. Bet liels skaits uzņēmumu ir iemācÄ«juÅ”ies izmantot neironus un izgatavot produktus, pamatojoties uz tiem. Neironi nodroÅ”ina jaunu funkcionalitāti, ļauj samazināt darba vietas un samazināt pakalpojumu cenas:

  • RažoÅ”anas uzņēmumi integrē algoritmus, lai analizētu ražoÅ”anas lÄ«nijas defektus.
  • LopkopÄ«bas saimniecÄ«bas pērk sistēmas govju kontrolei.
  • Automātiskie kombaini.
  • Automatizēti zvanu centri.
  • Filtri SnapChat. (nu, vismaz kaut kas noderÄ«gs!)

Bet galvenais un ne pats acÄ«mredzamākais: "Jaunu ideju vairs nav, vai arÄ« tās nenesÄ«s tÅ«lÄ«tēju kapitālu." Neironu tÄ«kli ir atrisinājuÅ”i desmitiem problēmu. Un viņi izlems vēl vairāk. Visas acÄ«mredzamās idejas, kas pastāvēja, radÄ«ja daudzus jaunuzņēmumus. Bet viss, kas atradās virspusē, jau bija savākts. Pēdējo divu gadu laikā es neesmu saskāries ar nevienu jaunu ideju par neironu tÄ«klu izmantoÅ”anu. Neviena jauna pieeja (nu, labi, ir dažas problēmas ar GAN).

Un katra nākamā palaiÅ”ana kļūst arvien sarežģītāka. Tam vairs nav nepiecieÅ”ami divi puiÅ”i, kuri apmāca neironu, izmantojot atvērtos datus. Tam nepiecieÅ”ami programmētāji, serveris, marÄ·ieru komanda, komplekss atbalsts utt.

LÄ«dz ar to ir mazāk jaunuzņēmumu. Bet ir vairāk ražoÅ”anas. Vai jāpievieno numura zÄ«mes atpazÄ«Å”ana? TirgÅ« ir simtiem speciālistu ar atbilstoÅ”u pieredzi. JÅ«s varat kādu nolÄ«gt un pēc pāris mēneÅ”iem jÅ«su darbinieks izveidos sistēmu. Vai arÄ« iegādājieties gatavu. Bet taisÄ«t jaunu startapu?.. Traki!

Jāizveido apmeklētāju izsekoÅ”anas sistēma ā€“ kāpēc maksāt par kaudzi licenču, ja 3-4 mēneÅ”u laikā var uztaisÄ«t pats, asināt to savam biznesam.

Tagad neironu tīkli iet pa to paŔu ceļu, ko ir izgājuŔas desmitiem citu tehnoloģiju.

Vai atceraties, kā kopÅ” 1995. gada ir mainÄ«jies jēdziens ā€œvietņu izstrādātājsā€? Tirgus vēl nav piesātināts ar speciālistiem. Profesionāļu ir ļoti maz. Bet varu derēt, ka pēc 5-10 gadiem nebÅ«s lielas atŔķirÄ«bas starp Java programmētāju un neironu tÄ«klu izstrādātāju. TirgÅ« pietiks abu speciālistu.

VienkārÅ”i bÅ«s problēmu klase, ko var atrisināt neironi. Ir radies uzdevums - nolÄ«gt speciālistu.

"Ko tālāk? Kur ir apsolītais mākslīgais intelekts?

Bet te ir neliels, bet interesants pārpratums :)

AcÄ«mredzot Å”odien esoŔā tehnoloÄ£iju kaudze mÅ«s nenovedÄ«s pie mākslÄ«gā intelekta. Idejas un to novitāte lielā mērā ir sevi izsmēlusi. Parunāsim par to, kas saglabā paÅ”reizējo attÄ«stÄ«bas lÄ«meni.

Ierobežojumi

Sāksim ar paÅ”braucoŔām automaŔīnām. Å Ä·iet skaidrs, ka ar mÅ«sdienu tehnoloÄ£ijām ir iespējams izgatavot pilnÄ«bā autonomas automaŔīnas. Bet pēc cik gadiem tas notiks, nav skaidrs. Tesla uzskata, ka tas notiks pēc pāris gadiem -


Ir daudzi citi speciālistiem, kuri lÄ“Å”, ka tas ir 5-10 gadi.

Visticamāk, manuprāt, pēc 15 gadiem pilsētu infrastruktÅ«ra pati mainÄ«sies tā, ka autonomo automaŔīnu parādÄ«Å”anās kļūs neizbēgama un kļūs par tās turpinājumu. Bet to nevar uzskatÄ«t par inteliÄ£enci. MÅ«sdienu Tesla ir ļoti sarežģīts datu filtrÄ“Å”anas, meklÄ“Å”anas un pārkvalificÄ“Å”anas cauruļvads. Tie ir noteikumi-noteikumi-noteikumi, datu apkopoÅ”ana un filtri pār tiem (Å”eit Å”eit Es uzrakstÄ«ju nedaudz vairāk par Å”o vai skatieties no Å”is atzÄ«mes).

Pirmā problēma

Un Å”eit mēs redzam pirmā fundamentālā problēma. Lielie dati. Tas ir tieÅ”i tas, kas izraisÄ«ja paÅ”reizējo neironu tÄ«klu un maŔīnmācÄ«bas vilni. MÅ«sdienās, lai veiktu kaut ko sarežģītu un automātisku, ir nepiecieÅ”ams daudz datu. Ne tikai daudz, bet ļoti, ļoti daudz. Mums ir nepiecieÅ”ami automatizēti algoritmi to apkopoÅ”anai, marÄ·Ä“Å”anai un lietoÅ”anai. Mēs vēlamies, lai automaŔīna redzētu kravas automaŔīnas, kas ir vērstas pret sauli - vispirms mums ir jāsavāc pietiekams to skaits. Gribam, lai ar bagāžniekā pieskrÅ«vētu velosipēdu maŔīna netrakotu - vairāk paraugu.

Turklāt ar vienu piemēru nepietiek. Simtiem? TÅ«kstoÅ”iem?

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Otrā problēma

Otrā problēma ā€” vizualizācija tam, ko mÅ«su neironu tÄ«kls ir sapratis. Tas ir ļoti nenozÄ«mÄ«gs uzdevums. LÄ«dz Å”im daži cilvēki saprot, kā to vizualizēt. Å ie raksti ir pavisam nesen, tie ir tikai daži piemēri, pat ja tie ir tālu:
Vizualizācija apsēstība ar tekstūrām. Tas labi parāda, uz ko neirons mēdz fiksēties + ko tas uztver kā sākuma informāciju.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?
Vizualizācija UzmanÄ«bu plkst tulkojumi. Faktiski pievilcÄ«bu bieži var izmantot tieÅ”i, lai parādÄ«tu, kas izraisÄ«ja Ŕādu tÄ«kla reakciju. Esmu redzējis Ŕādas lietas gan atkļūdoÅ”anai, gan produktu risinājumiem. Par Å”o tēmu ir daudz rakstu. Bet jo sarežģītāki ir dati, jo grÅ«tāk ir saprast, kā panākt stabilu vizualizāciju.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Jā, vecais labais komplekts ā€œPaskaties, kas ir sieta iekÅ”pusē filtri" Å Ä«s bildes bija populāras pirms 3-4 gadiem, taču visi ātri saprata, ka bildes ir skaistas, taču tām nav lielas nozÄ«mes.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Es neminēju desmitiem citu sÄ«krÄ«ku, metožu, uzlauÅ”anas, pētÄ«jumu par to, kā parādÄ«t tÄ«kla iekÅ”pusi. Vai Å”ie rÄ«ki darbojas? Vai tie palÄ«dz ātri saprast, kas ir problēma, un atkļūdot tÄ«klu?.. IegÅ«t pēdējo procentu? Nu, tas ir apmēram tas pats:

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Vietnē Kaggle varat skatīties jebkuras sacensības. Un apraksts par to, kā cilvēki pieņem galīgos lēmumus. Mēs salikām 100-500-800 modeļu vienības un tas strādāja!

Es, protams, pārspÄ«lēju. Taču Ŕīs pieejas nesniedz ātras un tieÅ”as atbildes.

Ja jums ir pietiekami daudz pieredzes, izpētÄ«jis dažādas iespējas, varat sniegt spriedumu par to, kāpēc jÅ«su sistēma pieņēma Ŕādu lēmumu. Bet bÅ«s grÅ«ti labot sistēmas uzvedÄ«bu. Uzstādiet kruÄ·i, pārvietojiet slieksni, pievienojiet datu kopu, izmantojiet citu aizmugurtÄ«klu.

TreŔā problēma

TreŔā fundamentālā problēma ā€” režģi māca statistiku, nevis loÄ£iku. Statistiski Å”is seja:

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

LoÄ£iski, ka tas nav ļoti lÄ«dzÄ«gs. Neironu tÄ«kli neko sarežģītu neapgÅ«st, ja vien tie nav spiesti. Viņi vienmēr māca pēc iespējas vienkārŔākās zÄ«mes. Vai tev ir acis, deguns, galva? Tātad Ŕī ir seja! Vai arÄ« sniedziet piemēru, kur acis nenozÄ«mē seju. Un atkal - miljoniem piemēru.

ApakŔā ir daudz vietas

Es teiktu, ka tieÅ”i Ŕīs trÄ«s globālās problēmas Å”obrÄ«d ierobežo neironu tÄ«klu un maŔīnmācÄ«bas attÄ«stÄ«bu. Un kur Ŕīs problēmas neierobežoja, tas jau tiek aktÄ«vi izmantots.

Šīs ir beigas? Vai ir izveidoti neironu tīkli?

Nezināms. Bet, protams, visi cer, ka nē.

Ir daudzas pieejas un virzieni, lai atrisinātu pamatproblēmas, kuras es uzsvēru iepriekÅ”. Taču lÄ«dz Å”im neviena no Ŕīm pieejām nav devusi iespēju izdarÄ«t kaut ko principiāli jaunu, atrisināt kaut ko, kas vēl nav atrisināts. LÄ«dz Å”im visi fundamentālie projekti tiek veikti, pamatojoties uz stabilām pieejām (Tesla), vai arÄ« paliek institÅ«tu vai korporāciju testa projekti (Google Brain, OpenAI).

Aptuveni runājot, galvenais virziens ir izveidot ieejas datu augsta lÄ«meņa attēlojumu. Savā ziņā "atmiņa". VienkārŔākais atmiņas piemērs ir dažādi ā€œIegulÅ”anasā€ - attēlu attēlojumi. Nu, piemēram, visas sejas atpazÄ«Å”anas sistēmas. TÄ«kls iemācās iegÅ«t no sejas kādu stabilu attēlojumu, kas nav atkarÄ«gs no rotācijas, apgaismojuma vai izŔķirtspējas. BÅ«tÄ«bā tÄ«kls samazina metriku ā€œdažādas sejas ir tāluā€ un ā€œidentiskas sejas ir tuvuā€.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Šādai apmācÄ«bai ir nepiecieÅ”ami desmitiem un simtiem tÅ«kstoÅ”u piemēru. Taču rezultātos ir daži no ā€œvienreizējas mācÄ«Å”anāsā€ elementiem. Tagad mums nav vajadzÄ«gi simtiem seju, lai atcerētos cilvēku. Tikai viena seja un mēs esam viss noskaidrosim!
Ir tikai viena problēma... Režģis var apgÅ«t tikai diezgan vienkārÅ”us objektus. Mēģinot atŔķirt nevis sejas, bet, piemēram, ā€œcilvēkus pēc apģērbaā€ (uzdevums Atkārtota identifikācija) - kvalitāte samazinās par daudzām kārtām. Un tÄ«kls vairs nevar uzzināt diezgan acÄ«mredzamas izmaiņas leņķos.

Un mācīties no miljoniem piemēru arī ir jautri.

Ir darbs, lai bÅ«tiski samazinātu vēlÄ“Å”anu skaitu. Piemēram, uzreiz var atsaukt atmiņā vienu no pirmajiem darbiem OneShot mācÄ«Å”anās no Google:

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Tādu darbu, piemēram, ir daudz 1 vai 2 vai 3.

Ir tikai viens mÄ«nuss - parasti apmācÄ«ba labi darbojas, izmantojot dažus vienkārÅ”us ā€œMNISTā€ piemērus. Un, pārejot uz sarežģītiem uzdevumiem, jums ir nepiecieÅ”ama liela datu bāze, objektu modelis vai kāda veida maÄ£ija.
Kopumā darbs pie One-Shot apmācÄ«bas ir ļoti interesants temats. JÅ«s atrodat daudz ideju. Taču lielākoties divas manis uzskaitÄ«tās problēmas (sagatavoÅ”anās ar milzÄ«gu datu kopu / sarežģītu datu nestabilitāte) ievērojami traucē mācÄ«Å”anos.

No otras puses, GAN ā€” Ä£eneratÄ«vie pretrunÄ«gie tÄ«kli ā€” tuvojas iegulÅ”anas tēmai. JÅ«s droÅ”i vien esat lasÄ«jis daudzus rakstus par Habrē par Å”o tēmu. (1, 2,3)
GAN iezÄ«me ir kādas iekŔējās stāvokļa telpas veidoÅ”ana (bÅ«tÄ«bā tā pati iegulÅ”ana), kas ļauj zÄ«mēt attēlu. Tā var bÅ«t sejas, var bÅ«t aktivitāte.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

GAN problēma ir tā, ka jo sarežģītāks ir Ä£enerētais objekts, jo grÅ«tāk to aprakstÄ«t ā€œÄ£eneratora-diskriminatoraā€ loÄ£ikā. Rezultātā vienÄ«gās reālās GAN lietojumprogrammas, par kurām ir dzirdēts, ir DeepFake, kas atkal manipulē ar sejas attēlojumu (kam ir milzÄ«ga bāze).

Esmu redzējis ļoti maz citu noderīgu lietojumu. Parasti kaut kāda viltība, kas saistīta ar attēlu zīmējumu apdari.

Un atkal. Nevienam nav ne jausmas, kā tas ļaus mums virzÄ«ties uz gaiŔāku nākotni. LoÄ£ikas/telpas attēloÅ”ana neironu tÄ«klā ir laba. Bet mums ir vajadzÄ«gs milzÄ«gs skaits piemēru, mēs nesaprotam, kā neirons to attēlo pats par sevi, mēs nesaprotam, kā likt neironam atcerēties kādu patieŔām sarežģītu ideju.

PastiprināŔanas mācÄ«Å”anās - Ŕī ir pieeja no pavisam cita virziena. Noteikti atceraties, kā Google pārspēja visus Go. Nesenās uzvaras Starcraft un Dota. Bet Å”eit viss nebÅ«t nav tik rožaini un daudzsoloÅ”i. ViņŔ vislabāk runā par RL un tās sarežģījumiem Å is raksts.

ÄŖsi apkopojot autora rakstÄ«to:

  • Modeļi, kas izņemti no kastes, vairumā gadÄ«jumu nav piemēroti / nedarbojas slikti
  • Praktiskās problēmas ir vieglāk atrisināt citos veidos. Boston Dynamics neizmanto RL tās sarežģītÄ«bas/neprognozējamÄ«bas/skaitļoÅ”anas sarežģītÄ«bas dēļ
  • Lai RL darbotos, ir nepiecieÅ”ama sarežģīta funkcija. Bieži vien ir grÅ«ti izveidot/uzrakstÄ«t
  • GrÅ«ti apmācÄ«t modeļus. Jums ir jāpavada daudz laika, lai sÅ«knētu un izkļūtu no vietējā optimuma
  • Rezultātā modeli ir grÅ«ti atkārtot, modelis ir nestabils ar mazākajām izmaiņām
  • Bieži vien pārvērÅ” dažus nejauÅ”us modeļus, pat nejauÅ”u skaitļu Ä£eneratoru

Galvenais ir tas, ka RL vēl nestrādā ražoÅ”anā. Google ir daži eksperimenti ( 1, 2 ). Bet es neesmu redzējis nevienu produktu sistēmu.

atmiņa. Visa iepriekÅ” aprakstÄ«tā negatÄ«vā puse ir struktÅ«ras trÅ«kums. Viena no pieejām, lai mēģinātu to visu sakārtot, ir nodroÅ”ināt neironu tÄ«klu ar piekļuvi atseviŔķai atmiņai. Lai viņa tur varētu ierakstÄ«t un pārrakstÄ«t savu soļu rezultātus. Tad neironu tÄ«klu var noteikt pēc paÅ”reizējā atmiņas stāvokļa. Tas ir ļoti lÄ«dzÄ«gs klasiskajiem procesoriem un datoriem.

Slavenākais un populārākais raksts ā€” no DeepMind:

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Å Ä·iet, ka tā ir atslēga inteliÄ£ences izpratnei? Bet droÅ”i vien nē. Sistēma joprojām prasa milzÄ«gu datu apjomu apmācÄ«bai. Un tas galvenokārt darbojas ar strukturētiem tabulas datiem. Turklāt, kad Facebook nolēma lÄ«dzÄ«ga problēma, tad viņi izvēlējās ceļu ā€œizskrÅ«vējiet atmiņu, vienkārÅ”i padariet neironu sarežģītāku un iegÅ«stiet vairāk piemēru ā€“ un tas mācÄ«sies pats no sevisā€.

AtdalÄ«Å”ana. Vēl viens veids, kā veidot jēgpilnu atmiņu, ir ņemt tos paÅ”us iegulumus, bet treniņa laikā ieviest papildu kritērijus, kas ļautu izcelt tajos ā€œnozÄ«mesā€. Piemēram, mēs vēlamies apmācÄ«t neironu tÄ«klu, lai atŔķirtu cilvēka uzvedÄ«bu veikalā. Ja mēs sekotu standarta ceļam, mums bÅ«tu jāizveido ducis tÄ«klu. Viens meklē cilvēku, otrs nosaka, ko viņŔ dara, treÅ”ais ir viņa vecums, ceturtais ir viņa dzimums. AtseviŔķa loÄ£ika aplÅ«ko to veikala daļu, kurā tas dara/ir apmācÄ«ts to darÄ«t. TreÅ”ais nosaka tā trajektoriju utt.

Vai arÄ«, ja datu bÅ«tu bezgalÄ«gi daudz, tad bÅ«tu iespējams apmācÄ«t vienu tÄ«klu visiem iespējamiem rezultātiem (acÄ«mredzot Ŕādu datu masÄ«vu nevar savākt).

AtdalÄ«Å”anas pieeja mums saka ā€“ apmācÄ«sim tÄ«klu, lai tas pats varētu atŔķirt jēdzienus. Lai pēc video veidotu iegulÅ”anu, kur viens laukums noteiktu darbÄ«bu, laicÄ«gi noteiktu stāvokli uz grÄ«das, noteiktu cilvēka augumu un personas dzimumu. Tajā paŔā laikā, apmācot, es vēlētos gandrÄ«z nevis rosināt tÄ«klu ar Ŕādiem galvenajiem jēdzieniem, bet gan lai tas izceltu un grupētu jomas. Šādu rakstu ir diezgan daudz (daži no tiem 1, 2, 3) un kopumā tie ir diezgan teorētiski.

Bet Å”im virzienam, vismaz teorētiski, vajadzētu aptvert sākumā uzskaitÄ«tās problēmas.

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Attēlu sadalÄ«Å”ana atbilstoÅ”i parametriem ā€œsienas krāsa/grÄ«das krāsa/objekta forma/objekta krāsa/utt.ā€

Vai maŔīnmācības burbulis ir pārsprādzis, vai arī tas ir jaunas rītausmas sākums?

Sejas sadalÄ«Å”ana pēc parametriem "izmērs, uzacis, orientācija, ādas krāsa utt."

Cits

Ir daudzas citas, ne tik globālas jomas, kas ļauj kaut kā samazināt datu bāzi, strādāt ar neviendabīgākiem datiem utt.

UzmanÄ«bu. Iespējams, nav jēgas to nodalÄ«t kā atseviŔķu metodi. Tikai pieeja, kas uzlabo citus. Viņam veltÄ«ti daudzi raksti (1,2,3). UzmanÄ«bas mērÄ·is ir uzlabot tÄ«kla reakciju tieÅ”i uz nozÄ«mÄ«giem objektiem apmācÄ«bas laikā. Bieži vien pēc kāda veida ārēja mērÄ·a apzÄ«mējuma vai neliela ārējā tÄ«kla.

3D simulācija. Ja uztaisa labu 3D dzinēju, ar to bieži var nosegt 90% treniņu datu (es pat redzēju piemēru, kur gandrÄ«z 99% datu sedza labs dzinējs). Ir daudz ideju un uzlauÅ”anas, kā panākt, lai tÄ«kls, kas apmācÄ«ts 3D dzinējā, darbotos, izmantojot reālus datus (precÄ«za regulÄ“Å”ana, stila pārsÅ«tÄ«Å”ana utt.). Taču bieži vien laba dzinēja izveidoÅ”ana ir par vairākām kārtām grÅ«tāka nekā datu vākÅ”ana. Dzinēju izgatavoÅ”anas piemēri:
Robotu apmācība (Google, smadzeņu dārzs)
treniņŔ atzÄ«Å”anu preces veikalā (bet tajos divos projektos, ko taisÄ«jām, bez tā varējām viegli iztikt).
Apmācība Teslā (atkal video iepriekŔ).

Atzinumi

Viss raksts savā ziņā ir secinājumi. Iespējams, galvenais vēstÄ«jums, ko vēlējos izteikt, bija "bezmaksas ir beiguŔās, neironi vairs nesniedz vienkārÅ”us risinājumus." Tagad mums ir smagi jāstrādā, lai pieņemtu sarežģītus lēmumus. Vai arÄ« smagi strādājiet, veicot sarežģītus zinātniskus pētÄ«jumus.

Kopumā tēma ir apspriežama. Varbūt lasītājiem ir interesantāki piemēri?

Avots: www.habr.com

Pievieno komentāru