Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

In colloquio Habr fabula non est. Antea magnas eventus Toaster pro 300-400 hominibus habuimus, nunc decrevimus ut conventus parva thematica ad rem pertinerent, cuius directio potes, exempli gratia, in comment. Prima colloquium huius formae mense Iulio habita est et dedicata est progressioni posteriori. Participes audiverunt relationes de notis transitus a tergo ad ML et de consilio Quadrupeli servitii in Services rei publicae portae, et etiam in mensa rotunda Servo dicata interfuerunt. Nam qui eventum in persona interesse non potuerunt, in hac statione narramus tibi res maximas iucundas.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Ex machina discendi progressionem backend

Quid notitia machinarum in ML faciunt? Quomodo officia backendi e elit et ML ingeniarius similes et diversae sunt? Quam viam debes accipere ad primam professionem mutandam in secundam? Haec nuntiata sunt ab Alexandro Parinov, qui in machina discendi post 10 annos operis regressi iniit.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr
Alexander Parinov

Hodie Alexander sicut systemata computatrale systematis visionis apud X5 Modo Societas architectus operatur ac confert Open Source incepta ad visionem computatrum pertinentia et altam doctrinam (github.com/creafz). Artes eius confirmantur per participationem in summo 100 mundi ordo Kaggle Magistri (kaggle.com/creafz), maxime popularis suggestus pro machina discendi certationis.

Quid vertas ad apparatus doctrina

Ante annum et dimidium, Jeff Dean, caput Google Brain, altae investigationis intelligentiae artificiosae doctrinae fundatae, descripsit quomodo dimidia decies centena millia lineae codicis in Google Translate substituti sunt a Tensore Flumine reticulo neurali tantum 500 lineis constans. Post institutionem retis, qualitas notitiarum aucta et infrastructura simplicior facta est. Hoc nostrum futurum videtur lucidum: codicem scribere non habemus, satis est neurons facere et notitias implere. Sed in usu omnia multo sunt difficiliora.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrML infrastructura apud Google

Neural retiaculi parva pars infrastructurae sunt (minuta quadrata nigra in pictura supra). Plures rationes auxiliares requiruntur ad informationem accipiendam, ad processum, reponendam, reprimendam qualitatem, etc., opus est infrastructura ad formationem, apparatus discendi in explicando codicem producendi et probandi hunc codicem. Omnia haec officia prorsus similia sunt quae tincidunt do backend.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrApparatus discendi processum

Quid interest inter ML et backend?

In programmatibus classicis codicem scribimus et haec agendi rationem dictat. In ML parvum exemplar codicem habemus et multa notitia quae ad exemplar mittemus. Data in ML permaxima est: idem exemplar in diversis notitiarum exercitatis eventus omnino diversos ostendere potest. Problema est notitias fere semper dispersa et in diversis systematibus (databas relativis, NoSQL databases, lignis, fasciculos).

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrData versioning

ML versionem requirit non solum codicem, ut in evolutione classica, sed etiam in notitia: necesse est ut clare percipias quid in exemplari instituto fuerit. Ad hoc faciendum, uti potes bibliotheca populari Data Scientiae Versionis Control (dvc.org).

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr
Data markup

Proximum opus est pter. Exempli gratia: nota omnia objecta in tabula vel quod genus proprium est. Hoc fit per officia specialia sicut Yandex.Toloka, opus quod valde facilior est per praesentiam API. Difficultates oriuntur propter "humanum factorem": notitiarum qualitatem emendare potes et errores ad minimum reducere, idem munus pluribus commissis commissis.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrVisualization in Tensor Board

Logica experimentorum necessaria est eventus comparare et optimum exemplar in quibusdam metris fundatum eligere. Magna copia instrumentorum visualizationis - exempli gratia Tensor Tabula. Sed nullae sunt rationes ideales ad experimenta reponenda. Parvae societates saepe faciunt cum diffusa Praecedo, dum magnae specialibus suggestis utuntur ad condendum proventus in database.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrMulta suggesta machinarum discendi sunt, sed nulla earum 70% necessitatum tegit

Primum problema quod quis ad faciem spectat, cum exemplar exercitatum in productione poneret, comparatur ad instrumentum gratissimi notitiarum phisicorum - Jupyter codicillus. Nulla in eo modularitas est, hoc est, output talis "vestis" codicis est qui in logicas partes - modulos non dividitur. Omnia miscentur: classes, functiones, schemata, etc. Hic codex versioni et experimento difficilis est.

Quomodo hoc agat? Te ipsum, sicut Netflix, abdicare potes, et suggestum tuum creare quod sinit te hos laptops directe in productione mittere, notitias eis transferre sicut initus et proventus. Cogere potes tincidunt qui exemplar in productionem volutant ut codicem normaliter rescribas, illud in modulos solvens. Sed hac accessu facile est errare, et exemplar non operari sicut intendit. Ideo optio optima est vetare usum Codicis Iupyteris ad exemplar codicis. Si utique notitia docti ad hoc consentiunt.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrExemplar quasi niger arca

Facillima via exemplar in productione obtinendi est ea uti capsula nigra. Habes quoddam exemplar genus, exemplaribus ponderibus datum (parametri neuronum retis exercitati), et si hoc genus initializes (modum praedictum vocas, picturam nutrias), quaedam accipies. praedictionem ut output. Quod intus accidit, non refert.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr
Separate servo processus per exemplum

Certum processum separatum etiam suscitare potes et illum per RPC queue mitte (cum imaginibus vel aliunde data. In output praedictiones accipiemus.

Exemplum usus exemplaris in Flask:

@app.route("/predict", methods=["POST"])
def predict():
image = flask.request.files["image"].read()
image = preprocess_image(image)
predictions = model.predict(image)
return jsonify_prediction(predictions)

Difficultas huic aditu est limitatio effectus. Dicamus nos habere codicem Phyton a phisicis datam tarde conscriptum, et volumus maximam observantiam exprimi. Ad hoc faciendum, instrumenta uti potes quae codicem in patriam convertunt vel in aliud compagem ad formandam productionem convertunt. Talia instrumenta in omni compage sunt, sed non sunt idealia, quos ipse addere debebis.

Infrastructura in ML eadem est ac regulariter backend. Sunt Docker et Kubernetes, solum Docker opus est ut runtime ab NVIDIA instituatur, quod processus intra continentem ad accessum pectorum video in hospitio permittit. Kubernetes plugino indiget ut servientes cum schedullis video administrare possit.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Dissimile programmatio classica, in casu ML multa elementa moventia sunt in infrastructura, quae reprimenda et probanda sunt, exempli gratia, codice processus notitiae, formatio formatio pipeline et productio (vide diagramma supra). Magni momenti est probare codicem qui diversas fistularum partes connectit: multae sunt frusta, et problemata saepissime ad moduli limites oriuntur.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr
Quomodo AutoML operatur

AutoML officia pollicentur selige exemplar optimale ad proposita tua et eam exerce. Sed intellegendum est: notitia magni momenti in ML, eventus pendet a praeparatione eius. Markup ab hominibus fit, quod erroribus refertum est. Sine obedientia, effectus purgamentum potest esse, et nondum potest automate processum, opus est verificatione a peritis - notis phisicis. Hic ubi AutoML deiecerit. Sed utilis esse potest ad architecturam eligendam - cum iam notitias paraveris et seriem experimentorum ad optimum exemplar invenire voles.

Quam impetro in apparatus doctrina

Facillima via ingrediendi ML est si in Pythone evolveris, quae in omnibus artubus profundis discendi (et compagibus regularibus) adhibetur. Haec lingua fere facienda est huic actionis campo. C++ pro aliquibus officiis visionis computatricis ponitur, exempli gratia, in systematis moderandis autocinetis auto- pulsis. JavaScript et Testa - pro visualizatione et rebus novis ut currit neuron in navigatro. Java et Scala adhibentur cum operando cum magna Data et pro machina discendi. R et Iulia ab hominibus amantur, qui mathematici studentes mutant.

Commodissima via ad experientiam practicam incipiendam est in Kaggle, participatio certationis unius e suggestu plus quam annum dat theoria studendi. In hoc suggestu potes capere alterius missae et codicem commentati et conare emendare, optimize ad proposita tua. Bonus - Kaggle gradum tuum salarium tangit.

Alia optio est coniungi ML team sicut elit backend. Multae sunt machinae studiorum satus ubi experientiam habere potes adiuvando collegas tuos solve eorum problemata. Denique unam e notitiis communitatibus scientistarum iungere potes - Data Scientiae Open (ods.ai) et aliis.

Orator missae informationis de re ad nexum https://bit.ly/backend-to-ml

"Quadrupel" - officium notificationes iaculis portae "Suspendisse Services"

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrEugenius Smirnov

Proximus orator erat caput evolutionis infrastructure e-regiminis, Evgeny Smirnov, qui de Quadruple locutus est. Haec notificatio iaculis servitiorum Gosuslugi portal (gosuslugi.ru), maxime resource in Runet visitavit regimen. Cotidiana audientia est 2,6 decies centena millia, in summa sunt 90 decies centena milia usorum usorum in situ, ex quibus 60 miliones confirmantur. Onus in porta API XXX milia RPS.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrTechnologies in rem publicam Services backend

"Quadrupel" est servitium iaculis notificatio, cuius ope utens oblatum accipit pro servitio aptissimo momento ei constituendo regulas speciales notificationes. Praecipua requisita cum obsequium evolvere erant flexibiles occasus et tempus adaequatum mailings.

Quomodo Quadrupel opus facit?

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Tabula supra demonstrat unam regulam operandi Quadrupel utens exemplo rei cum necessitate reponendi licentiam exactoris. Primum, servitium spectat utentes, quorum dies expiratus in mense exspirat. Exhibentur vexillum cum oblationibus ad debitum servitium recipiendum ac nuntium missum ab electronico. Pro usoribus illis quorum notificata iam expiravit, vexillum et electronica mutatio est. Post feliciter commutationem iurium, user alias notificationes accipit - cum proposito ut notitias in identitate renovaret.

Ex parte technica haec scripta sunt groovy in quibus signum scribitur. Data initus est, output verum/falsum est, matched/non congruit. Regulae plus quam 50 in summa sunt - ex determinando natalis usoris (dies hodierna est aequalis datae nativitatis usoris) complexibus condicionibus. Quotidie hae regulae circiter decies centena millia hominum identificandi notificandae sunt.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii HabrQuadrupel notitia channels

Sub cucullo Quadrupeli exstat database in quo usuario notitia reponitur, et tres applicationes; 

  • opificem adaequationis in animo data.
  • reliqua API portat et portat et mobile applica- tiones sibi tradit.
  • Scheduler movet opus recalculating vexilla vel massam mailings.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Ut renovatio data, backend est eventus agitatae. Duo interfacies β€” rest or JMS. Eventus multum sunt, antequam salvis et expediendis congregentur, ne necessarias petitiones exigant. Ipsum database, mensa in qua notitia reponitur, instar clavis pretii promptuarium - clavem utentis et ipsum valorem: vexilla indicantes praesentia vel absentia documentorum pertinentium, eorum validitatem periodum, statisticam in ordine officiorum aggregatam. hic interreti, et sic porro.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Post data servata, negotium in JMS positum est ut vexilla statim reputentur β€” id statim in interreti exponi debet. Systema noctu incipit: opera in intervalla usoris JMS mittuntur, secundum quae regulae calculare necesse est. Hoc colligetur a processoribus qui recalculi implicantur. Deinceps proventus processus ad proximam queue pergunt, qui vel vexilla datorum servat vel negotia notificationis usoris mittit ad ministerium. Processus 5-7 horarum accipit, facile scalabilis est ob id, quod semper vel tractores addere vel instantias novis tractoriis erigere potes.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Ministerium satis bene facit. Sed numerus notitiarum crescit sicut plures sunt utentes. Hoc incrementum dat in oneris datorum - etiam ratione habita quod Requiem API imaginem spectat. Secundum est JMS, quod, ut evenit, non satis convenit propter summam memoriae consumptionem. Est summus periculum queue inundationis causans JMS ad fragorem et processus ad sistendum. Impossibile est JMS levari post haec sine purgatione ligna.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Cogitatur problemata solvenda utens shardinge, quae onus datorum conpensationem permittit. Sunt etiam consilia ad rationem datam repositionis mutandam, et JMS ad Kafka mutant - solutionem patientiorem culpabilem quae problemata memoriam solvet.

Backend-as-a-Service Vs. Serverless

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr
A sinistro ad dextrum: Alexander Borgart, Andrey Tomilenko, Nikolay Markov, Ara Israelyan

Backend ut servitium seu solutionem Serverless? Participes disceptationis huius instantiae apud mensam rotundam erant;

  • Ara Israelyan, CTO CTO et auctor Scorocode.
  • Nikolay Markov, Senior Data Engineering ad Aligned Research Group.
  • Andrey Tomilenko, princeps RUVDS progressus department. 

Colloquium ab Alexandro Borgart senior elit. Exhibemus disputationes in quibus auditores etiam versionem abbreviatam communicaverunt.

- Quid est Serverless in intellectu tuo?

Andrew: Exemplar computatorium est - munus Labda quod debet procedere in notitia ut effectus tantum in notitia pendeat. Vocabulum vel a Google vel ab Amazone et eius AWS Labda factum est. Facilius est provisor ad tale munus pertractandum collocando stagnum capacitatis. Diversi utentes independenter haberi possunt pro eisdem servientibus.
Nicolaus: Ut simpliciter, transfermus aliquam partem infrastructurae nostrae IT et negotii logicae ad nubem, ad provocent.
Ρ€Π°Ex parte tincidunt - bonum conservare opes, ex parte venalicium - plus pecuniae mereri.

- Estne Serverless idem quod microservices?

NicolausNulla id tortor est. Microservice est unitas cuiusdam logicae atomicae. Servili accessus est, non "ens separatum."
Ρ€Π°: Munus Serverless munus in microservire potest sarcinari, sed hoc amplius non erit Serverless, Lambda munus esse desinet. In Serverless, functio tantum incipit operari quo petitur.
Andrew: differunt vita. Labda munus deiecimus et obliti sumus. Hoc pro duobus secundis laboravit, et proximus clienti petitionem suam in alia machina physica procedere potest.

- Quod libra melius?

Ρ€Π°: Cum scandit horizontaliter, Lambda functiones prorsus eadem sunt ac microservices.
NicolausQuotcunque replicationum quas posueris, tot erunt: Serva sine scalis difficultates non habet. Replicam in Kubernetes positam feci, 20 instantiarum "alicubi" deductas, et 20 nexus anonymi tibi redditi sunt. Deinceps!

- Licetne scribere in Serverless backend?

Andrew: cogitatione, sed sensu caret. Munera Labda in uno repositorio fient - opus est nobis cautionem praestandi. Exempli causa, si usor certam rem gessit, proximo tempore contactum debet videre: res peracta, pecunia credita est. Omnia munera Labda hanc vocationem claudent. Revera, fasciculus functionum Serverless convertet in unum servitium cum uno accessu ad datorum bottleneck.

β€” In quibus adiunctis sensum efficit architecturae servientibus uti?

Andrew: munia quae repositione communicata non requirunt β€” eadem fodienda, blockchain. Ubi multum debes facere numerandi. Si vim computandi multum habes, munus definire potes sicut "decusem alicuius ibi computare...". Sed quaestionem solvere cum notitia repositionis accipiendo, exempli gratia, munera ex Amazonibus et repositione distributa Lambda . Et evenit ut servitia scribis iusto. Munera Labda accessurum repositionis et quaedam responsionis usori praebebunt.
Nicolaus: Vasa quae in Serverless currunt admodum limitata sunt in opibus. Exstat memoria et cetera. Sed si tota infrastructura tua in nube quadam - Google, Amazon - plane explicatur et cum illis contractum perpetuum habes, ratio praevisionis omnibus est, tunc ad aliqua officia uti potes vasis Serverless. Necesse est intra hanc infrastructuram esse, quia omnia ad usum in ambitu specifica discriminantur. Hoc est, si omnia ad nubem infrastructuram ligare paratus es, experimentum potes. Commodum est quod infrastructuram hanc administrare non debes.
Ρ€Π°: Servo quod non requirit te Kubernetes, Docker inaugurare Kafka, et sic deceptio est sui. Idem Amazon et Google hoc inaugurunt. Aliud est quod habes SLA. Poteris etiam omnia excidere quam te ipsum cod.
Andrew: Serva ipsa vilia est, sed multum solvendum est pro aliis officiis Amazonibus - exempli gratia datorum. Homines iam eos petiverunt quod insanas pecunias in API porta accusaverunt.
Ρ€Π°: Si de pecunia loquimur, hoc loco considerare debes: totam methodum methodi evolutionis in coetu 180 graduum convertes debebis ut totum codicem ad Serverless transferas. Hoc multum temporis ac pecuniae accipiet.

- Suntne bene eligenda ut Servilia ab Amazone et Google solvantur?

Nicolaus: In Kubernetes aliquod officium deducis, currit et moritur - hoc satis servile est ex parte architecturae. Si vis rem iucundam creare cum queues et databases logicam rem creare, tunc paulo plura de eo cogitare debes. Haec omnia expediri possunt sine Kubernetes relicto. Nolo molestare exsequendum extrahendum additis.

- Quam magni momenti est ad monitor id quod agitur in Serverless?

Ρ€Π°: Dependet ratio architecturae ac negotii requisitorum. Essentialiter, provisor renuntiationes praebere debet quod turmas devops adiuvabit ut problemata possibilia cognoscat.
Nicolaus: Amazon habet CloudWatch, ubi omnia congesta sunt, in iis Labda. Integrate stipes transmittuntur et separato instrumento utuntur ad videndum, admonendum, et sic de aliis. Procuratores in vasa incipias facere potes.

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

- Summa sit.

Andrew: Labda cogitans de functionibus utilia. Si munus tuum creas - non microserviam, sed rogationem scribens, datorum accedit et responsionem mittit - Munus Labda plures difficultates solvit: cum multiplicatione, scalabilitate, et sic porro. Si logica tua hoc modo aedificata est, in posterum has Lambdas ad microservias transferre poteris vel utere officia tertia partium Amazonum. Nulla est utilis, idea est interesting. Quam iusta sit negotiatio, adhuc aperta quaestio est.
Nikolay: Serverless usui melius est ad operas operationes quam ad rationem alicuius negotii computandi. Semper cogito ut res processus. Si in Amazonibus, si in Kubernetes, est. Alioquin multum nisum habebis ut Servless sursum ac cursus tuo. Negotium specificum casus inspicere necesse est. Exempli gratia, una ex nostris operibus nunc est: cum fasciculi apparent in disco in forma quadam, necesse est eas Kafka immittere. Potest uti WatchDog vel Labda. Ex ratione logica ambae optiones aptae sunt, sed secundum exsecutionem, Serverless magis implicata est, et simpliciori via sine Labda praefero.
Ρ€Π°: Serverless an interesting, applicabilis, et idea technice pulcherrima. Citius vel serius, technologia eo perveniet ubi munus quodlibet minus quam centum millium secundorum deducetur. Deinde in principio nulla quaestio erit an tempus exspectationis criticae utentis sit. Eodem tempore, applicabilitas Serverless, ut collegae iam diximus, quaestionis negotia prorsus pendet.

Patrino nostro gratias agimus qui nos multum adiuverunt;

  • IT spatium colloquii Β«fonsΒ» ad colloquium situm.
  • Calendarium IT rerum Runet-ID et publicatio "Penitus in numerisΒ» ad informationem et favorem et nuntium.
  • Β«Acronis"pro muneribus.
  • avito pro co- creatione.
  • "Societas electronicarum Communicationis" RAEC quia ducimus et adipisci.
  • Patrinus principalis RUVDS β€” omnibus!

Backend, apparatus eruditionis et cultoris - maxime interesting res e colloquio Iulii Habr

Source: www.habr.com