Neural ligula. Quo itis haec omnia?

Articulus constat duabus partibus;

  1. Brevis descriptio aliqua retis architecturae obiectorum detectarum in imaginibus et segmentation imaginum cum notissimis nexus ad facultates pro me. Conatus sum eligere explicationes video et potius in Russian.
  2. Secunda pars est conatus ad intellegendum directionem evolutionis retis architecturae neural. et technologiae in eis fundatae.

Neural ligula. Quo itis haec omnia?

Figura 1 - intellectus neural network architecturae non est facile

Omnia incepit per duas applicationes demo ad rem classificationem et deprehensionem in phone Android:

  • Retro-finem democum notitia discursum in calculonis transmittitur. Imago trium generum ursorum divisio: fuscum, nigrum et teddy.
  • Ante-finem democum notitia in ipsum telephonum processit. Deprehensio rerum trium generum: avellanae, ficus et palmulae.

Differunt inter officia imaginis classificationis, objecti deprehensio in imagine et imago justo. Ergo opus erat ut invenirem quae neural retis architecturae res in imaginibus deprehendere et quae segmentum capere possint. Haec exempla inveni architecturarum cum notissimis nexus facultatum mihi;

  • Architecturae series in R-CN fundatur (Rregiones cum Convolution Neural Nnotasque lineamenta): R-CN, Fast R-CNN, Velocius R-Cnn, Os R-Cnn. Ad detegendam rem in imagine, capsulis alligatis, collocantur utens mechanismo Regio rogationis (RPN). Initio, tardior machinatio selectiva quaerendi loco RPN adhibita est. Tunc regiones selectae limitatae pascuntur ad inputationem retis neuralis conventionalis pro classificatione. Architectura R-Cnn explicita "pro" ansas regionum limitata comprehendens usque ad 2000 percurrit network internam AlexNet. Explicit "pro" ansas processus velocitatis imaginis tardus. Numerus ansarum explicitarum per retis neuralis internae currens decrescit cum unaquaque nova architecturae versione, et dozenorum aliarum mutationum etiam fiunt ad celeritatem augendam et ad munus deprehensionis obiecti deprehensionis in Mask R-Cnn.
  • YOLO (You Only Lplacátus inténde Once) est prima retis neural, quae in tempore reali in mobilibus machinis objecta agnita est. Distinctive pluma: discrimina in uno currunt (solum specta semel). Id est, in architectura YOLO nullae explicatae sunt "pro" ansae, quae idcirco retis celeriter operatur. Exempli gratia, haec analogia: in NumPy, cum operationes matrices exercens, etiam non explicatae "pro" loramenta, quae in NumPy ad inferiores gradus architecturae per linguam programmandi C perficiuntur, YOLO eget fenestris praefinitis utitur. Ne idem obiectum pluribus temporibus definiatur, fenestra coëfficiens LINO (IOU) adhibetur. Iintersectio oVer Union). Haec architectura longe lateque operatur et alte habet robur: Exemplar in imaginibus institui potest, sed tamen picturis manu exaratis bene praestare potest.
  • SSD (Singuina Scalidum MultiBox Detector) - felicissimae architecturae YOLO adhibitae sunt (exempli gratia, suppressio non-maxima) et novae additae sunt ut opus retis neuralis citius et accuratius efficiatur. Distinctiva linea: distinguens res in uno currens utens data craticula fenestrarum (default capsula) in pyramide imaginis. Imago pyramis in tensoribus convolutionis enodatur per convolutionem successivam et operationes condensando (cum operatione max-pooling, dimensio spatii decrescit). Et hoc modo, et magna et parva determinata in uno retis currunt.
  • MobileSSD (MobileNetV2+ SSD) est compositum ex duabus architecturis retis neural. Primum network MobileNetV2 cito operatur et crescit cognitio accurationis. MobileNetV2 adhibetur loco VGG-16, quae in principio usus est originale articulum. Secunda SSD retis locum obiecti in imagine determinat.
  • SqueezeNet - perexiguum sed accurate neural ornatum. Per se, obiecto detecto quaestionem non solvit. Sed in diversis architecturae coniunctis adhiberi potest. Adhibetur et in mobilibus machinis. Proprium notum est, quod data primum in quattuor 1×1 filtra convolutionis comprimitur et deinde in quattuor 1×1 et quattuor 3×3 convolutionis filtras dilatatur. Una talis iteratio notitiarum compressionis expansio vocatur “Ignis Module”.
  • DeepLab (Semantic Image Segmentation cum Retibus Convolutionibus profundis) - segmentatio obiectorum in imagine. Proprium notam architecturae convolutionis dilatatur, quae resolutionem localem conservat. Hoc sequitur statio post-processus utens exemplo probabili probabilistico graphice (conditionalis temere campi), quod permittit te parvam strepitum tollere in segmentatione et qualitatem imaginis divisae emendare. Post nomen formidabile "exemplar graphicale probabilisticum" conventionale Gaussianum colum celat, quod quinque punctis approximatur.
  • Conatus ut instar sicco machinam RefineDet (Single Shot refinement Neural Network ad Object Quodexionem), sed non multum intellexi.
  • Etiam spectavi quomodo opera technologiae "attentionis"; video1, video2, video3. Proprium notae "attentionis" architecturae est automatic selectio regionum auctarum attentionis in imagine (RoI, Rlegiones of Interest) usus retis neuralis quae vocatur Operam Unit. Regiones auctae attentionis similes sunt capsulis terminandis, sed dissimilibus, non figuntur in imagine ac limites suffusi possunt. Deinde, ex regionibus auctis attentionis, signa segregantur, quae "nutriuntur" ad retiacula neuralis recurrentes cum architecturis. LSDM, GRU vel Vanilla RNN. Recurrentes retiacula neuralis relationem lineamentorum ordine resolvere possunt. Recurrentes retia neuralis initio usi sunt ad textum transferendum in alias linguas, nunc ad translationem imagines ad illud и textum ad imaginem.

Dum haec architecturae explorandum Intellexi me non intelligere aliquid. Et non est quod retiacula mea neural problemata cum mechanismo attente habet. Omnium harum architecturae creatio est quasi quaedam ingens hackathonum species, ubi auctores autocineti certant. Hack facilis solutio ad problema programmatis difficilis est. Inter omnes has architecturas nulla est visibilis et comprehensibilis logica connexio. Omnia quae illis coniungit est copia felicissimi autocineti quod ab invicem mutuantur, plus commune omnibus. clausa, loop convolutionis operandi ( error backpropagation , backpropagation ) . No systems cogitandi! Non liquet quid res gestas mutare et quomodo optimize existere.

Propter defectum logicae nexus inter hack, difficillime sunt meminisse et in praxi applicare. Haec scientia redacta est. Optime, pauca momenta interesting et inopinata memorantur, sed maxime quod intellectum et incomprehensibile intra paucos dies memoria evanescit. Bonum erit si in hebdomade saltem nomen architecturae memineris. Sed aliquot horae atque etiam dies laboris temporis consumpti sunt vasa legendi et videndi recensionem spectans!

Neural ligula. Quo itis haec omnia?

Figura II - Zoo de Neural Networks

Plerique auctores rerum scientificarum, mea quidem sententia, omnia possunt efficere ut etiam haec cognitio redacta a lectore non intelligatur. Sed verba participialia in decem lineis formularum quae sumuntur ex aere tenui thema sunt articuli separati. auditum perituri).

Quam ob rem, opus est informationes utentes neuralis retiacula disponere et sic qualitatem intellegendi et memorabilium augere. Praecipuum igitur argumentum enucleandi singularum technologiarum et architecturarum reticulorum artificialium neuralis hoc munus fuit: invenies ubi actum estac neutrius quidem ullius rei notae separatim.

Ubi est haec agis? Proventus praecipuus:

  • Numerus apparatus doctrina startups in duobus ultimis annis cecidit acriter. Ratio fieri potest: "retia neural iam non sunt aliquid novi".
  • Quisque potest creare reticulum neurale laborantem ad solvendum problema simplicem. Ad hoc efficiendum, exemplar paratum accipe ex "Tesserae exemplar" et extremam tabulatum reticuli neuralis institue (transfer doctrina) Paratus facta notitia ex * Google Rank Quaerere uel XXV milia Kaggle datasets in libero nubes Iuppiter codicillus.
  • Magna fabrica retiacula neural creare coepit "exemplum zoos" (exemplum saepti ferarum). Iis uti potes celeriter applicationem commercialem creare: TF Hub for TensorFlow, MMDetection ad PyTorch, Detectron ad Caffe2, chainer-modelzoo for Chainer and * другие.
  • Neural networks opus in realis tempus (Real-time) in mobile cogitationes. Ab 10 ad 50 tabulae secundae per.
  • Usus reticulorum neuralis in phones (TF Lite), in navigatoribus (TF.js) et in supellectile (ioT, Ipenitus of Tcardine). Praesertim in telephoniis quae retiacula neuralis iam sustinent in gradu ferramentorum ( acceleratores neuralis ) .
  • "Omnis fabrica, item vestis, et fortasse etiam cibus erit" IP-v6 oratio et communicent inter se" - Sebastianus Thrun.
  • Numerus publicationum in machina discendi crescere incepit excedere Moore lex (Duplicatio omnis duobus annis) ab MMXV. Patet, reticulis neurals indigemus ad articulos examinandos.
  • Hae technologiae popularis sunt:
    • PyTorch – popularis celeriter crescit ac TensorFlow consequi videtur.
    • Lorem selectio hyperparametri AutoML – popularis crescit lenis.
    • Minoratio gradus accurationis et celeritatis calculi augetur; quamquam ratione, algorithms boostingcalculis impropriis, quantitatis (cum pondera retis neuralis in numeros integros et quantitatis convertuntur), acceleratores neuralis.
    • translatione imagines ad illud и textum ad imaginem.
    • creatura XNUMXD objecta ex videonunc in tempore reali.
    • Summa de DL data est multum, sed non facile colligere ac labeling. Ergo, markup automation enucleatur (automated annotationem) retiacula neuralis utentes retiacula neurali.
  • Cum retiacula neural, Computer Scientia subito facta est experimentalem scientiam et surrexit reproducibility discrimine.
  • IT pecunia et favor reticulorum neuralis simul cum computatione facta est numerus clausus. Oeconomia mutatur ex oeconomia in auro et moneta aurum-monetæ-computing. Vide meum articulum on oeconomicae et IT pro specie pecuniae.

Paulatim novum unum apparet ML/DL programmatio methodi (Machina Learning & Profunda Learning), quae innititur programmate repraesentando ut exemplar retis neuralis doctae institutum.

Neural ligula. Quo itis haec omnia?

Figura 3 - ML/DL ut nova methodus programmandi

Sed numquam apparuit "retis neural theoria"intra quod cogitare et operari potes. Quae nunc "theoria" vocatur, est algorithmus heuristicus actu experimentalis.

Ducas ad meas aliasque facultates;

Спасибо за внимание!

Source: www.habr.com

Add a comment