Postgres Martis N. 5: “PostgreSQL et Kubernetes. CI/CD. Test automation"

Postgres Martis N. 5: “PostgreSQL et Kubernetes. CI/CD. Test automation"

Exeunte anno, alia vita passim facta est communitati PostgreSQL Russiae #RuPostgres, in quo cooperator eius Nikolai Samokhvalov locutus est cum Flant technica directore Dmitry Stolyarov de hoc DBMS in contextu Kubernetes.

Transumptum praecipuae partis huius disputationis publici iuris facimus, et at . Community YouTube channel Plena video missae:

Databases et Kubernetes

NS: Vacuum et SCUTULATUM hodie non loqui. Loqui volumus de Kubernetibus. Scio te multos annos experientiae habere. Videos tuos spectavi atque etiam aliquos ex eis re-spectavi... Ad punctum recta pergamus: cur Postgres vel MySQL in K8s omnino?

Дс: Non est nec potest huic quaestioni definita responsio esse. Sed generaliter haec est simplicitas et commodo potentia. Quisque velit expedita officia.

NS: Ut quomodo RDSdomi tantum?

Дс: Ita: sicut RDS, usquam.

NS: "Ubiquam" bonus punctus est. In magnis societatibus, omnia in diversis locis sita sunt. Cur ergo, si magna societas est, non expedite solutum est? Exempli causa, Nutanix suas explicationes habet, aliae societates (VMware...) easdem "RDS, domi tantum habent."

Дс: Sed loquimur de exsecutione separata quae sub certis conditionibus tantum operatur. Et si loquimur de Kubernetes, ingens est substructurae varietas (quae in K8s esse potest). Essentialiter hoc signum est APIs ad nubem.

NS: Etiam liber est!

ДсNon est ut maximus. Libero sit amet magna foro non magna. Aliquid aliud interest.Databases et Kubernetes"?

NS: Ita.

Дс: ambigue admodum receptum intellexi. Putaverunt quidam me dicere: "Guys, omnes databases in Kubernetes", alii statuerunt has omnes birotas terribiles esse. Sed aliquid omnino aliud volui dicere: “Vide quid agatur, quae sint problemata et quomodo solvi possint. Nunc utemur Kubernetes databases? Fabricatio? Bene, si libet facere aliqua. Sed pro dev, id commendo possum dicere. Nam a dev, dynamismus creandi/deletis ambitus magni momenti est".

NS: Per dev, vis omnes ambitus qui non prod? Staging, QA…

Дс: Si loquimur de perf stat, verisimile non est, quia requisita specifica sunt. Si loquimur de casibus specialibus ubi amplissimum database opus est ad currendum, tunc verisimile non est... Si res stabilis, diuturna est, quid prodest habere datorum in K8s sitos?

NS: nullus. Sed ubi videmus ambitus statos? Cras amet elit elit.

Дс: choragium potest esse statarium. Clientes habemus...

NS: Immo etiam unum habeo. Magna quaestio est si habeas 10 TB database et 200 GB choragium...

Дс: frigidissima causa habeo! In choragia productum est database cui mutationes fiunt. Et globulum est: "ad productionem volvunt". Hae mutationes - deitas - additae sunt (ut videtur simpliciter per API synchronizatas) in productione. Haec optio valde exotica est.

NS: Satumum vidi in Valle sedentes in RDS vel etiam in Heroku - hae fabulae ab abhinc annis 2-3 - et TUBER ad suum laptop deducunt. Quia database adhuc tantum 80 GB et spatium in laptop est. Tunc additamenta orbis pro omnibus emunt ut 3 databases habeant ad diversas explicationes perficiendas. Ita quoque fit. Vidi etiam quod non timet imitari pred in choragium — valde pendet a consortio. Sed etiam vidi quod valde timent, et quod saepe non habent tempus satis et manus. Sed priusquam ad hunc locum accedamus, de Kubernetibus audire cupio. Nondum recte intelligo neminem in iaculo esse?

Дс: Habemus parvas databases in pred. Loquimur de decem voluminibus gigabytarum et non-critica officia pro quibus nimis pigri fuimus ad replicandas (et non est talis necessitas). Et dummodo sub Kubernetes reposita sit ordinaria. Hoc database in virtualis apparatus - conditionaliter in VMware laborabat, super systematis repono. Posuimus eam in PV et nunc a machina ad machinam transferre possumus.

NS: Paginae huius magnitudinis, usque ad 100 GB, evolvi possunt in paucis minutis in bonis orbis ac retis bonis, ius? Celeritas 1 GB per secundam non iam exotica est.

Дс: linearis operationis hoc problema non est.

NS: Bene, sicut habemus ad cogitandum de pred. Et si consideramus Kubernetes de ambitus non iaculo, quid faciemus? Video in Zalando facite operatorin Crunchy serraresunt alia bene. Et est OnGres - hic est bonus amicus noster Alvarus ex Hispania: id quod agunt per se non est iustum operatorac totius distributionisStackGres) , in quem, praeter ipsum Postgres, etiam procuratorem legatum supponere constituerunt.

Дс: legatus pro quo? Specimen Postgres librans negotiationis?

NS: Ita. Hoc est, quasi vident: si accipias distributionem Linux et nucleum, tunc regularis PostgreSQL nucleus est, et distributionem facere volunt, quae nubes amicae erit et in Kubernetes currunt. Componunt (terga, etc.) et debug ut bene operantur.

Дс: Frigidissima! Essentialiter hoc programmatum est ad creandum tuum postgres administratum.

NS: Linux distributiones aeternas difficultates habent: quomodo efficiendi rectores ut omnia ferramenta sustineantur. Et habent opinionem quod in Kubernetes laborabunt. Scio in Zalando operante nuper vidimus nexum cum AWS et hoc iam non est valde bonum. Certae infrastructurae vinculum non sit - quid ergo punctum?

Дс: Qualem condicionem Zalando nactus est prorsus nescio, sed in Kubernetes reposita ita nunc facta est ut disci tergum in methodo generica utentem assumere impossibile sit. Nuper in vexillum - in novissima versione CSI specifications — snapshots possibilis egimus, sed ubi efficitur? Honeste, omnia adhuc tam rudis sunt... Conamur CSI super AWS, GCE, Azure, vSphere, sed cum primum uteris, videre potes quod nondum paratus est.

NSIdeo interdum infrastructuram niti debemus. Puto adhuc praematuro - ingravescentibus doloribus. Quaeritur: Quid consilium dares newbies qui experiri PgSQL in K8s? Quid operator fortasse?

Дс: Problema est Postgres 3% nobis. Etiam in Kubernetes amplissimum album diversorum programmatum habemus, ego etiam omnia enumerare non valeo. Exempli gratia, Elasticsearch. Multum sunt operariorum: alia sunt active enucleanda, quaedam non sunt. Pro nobis ipsis requisita inlinemus quidnam sit in operante ut id serio accipiamus. In operante specialiter pro Kubernetes - non in "operatore ad aliquid faciendum in condicionibus Amazonibus"... Profecto late late (= fere omnes clientes) uno operatore utimur - nam Redis Articulum de eo mox edemus..

NSEt non MySQL aut? Scio Perconam ... cum nunc in MySQL, MongoDB et Postgres laborant, solutionem aliquam universalem creare debebunt: pro omnibus databases, omnibus provisoribus nubes.

Дс: Operatores MySQL inspicere tempus non habuimus. Hoc nunc focus principalis non est. MySQL bene in standalone operatur. Cur operatorem uteris si modo datorum detrudere potes... Docker vas cum Postrges mittere potes, vel simpliciter deduci potes.

NS: Quesitum est de hoc quoque. Nulla auctor nulla ante?

Дс: Ita, 100% ex nobis habent PostgreSQL cursus sine operante. Hactenus. Auctore pro Prometheo et Redis strenue utimur. Consilia habemus ut operatorem pro Elastica inquisitione inveniendum - illud maxime "incendium" est, quod in Kubernetes in C% casuum instituere volumus. Sicut volumus efficere ut MongoDB etiam in Kubernetes instituatur. Hic quaedam vota apparent - sensus est in his aliquid fieri posse. Et ne Postgres quidem inspeximus. Sane scimus varias esse bene, sed habemus res standalones.

DB ad probandum in Kubernetes

NS: Transeamus ad thema temptationis. Quomodo evolvere mutationes database - ex prospectu DevOps. Microservices sunt, multi databases, aliquo tempore aliquo mutatur. Quomodo normales CI/CD curent ut omnia in contextu DBMS ordinentur. Quid est aditus?

Дс: Non potest respondere unum. Plures sunt optiones. Prima basis magnitudo est quam evolvi volumus. Tu ipse memorasti societates habere diversas habitudines ad exemplum datorum prodentium in dev et scaena.

NS: Et sub conditionibus GDPR, magis ac diligentiores esse puto... Dicere possum quod in Europa iam multas pecunias imponere inceperat.

Дс: Sed saepe scribere potes programmatum TUBER productio sumit et obfuscat. Proda data obtinetur (snapshot, dump, exemplar binarii...), sed anonymizatum est. Pro generatione scriptorum possunt esse: hae adfixa esse possunt vel tantum scriptum, quod magnas datorum generans. Quaestio est: quousque imaginem turpem creare vult? Et quam diu eam in ambitu desiderato explicandi sumit?

Ad schema venimus: si client certas notitias (minimalis datorum versio datorum), his defaltis utimur. Si loquimur de ambitibus recensendis, cum ramum creavimus, exemplum applicationis explicavimus - parva database ibi evolvemus. Sed bene successit optionem, cum TUBER semel in die (nocte) e productione accipimus et vas Docker cum PostgreSQL et MySQL construimus cum hoc onusto notitia in eo fundata. Si opus datorum 50 temporibus ex hac imagine dilatare debes, hoc simpliciter et celeriter fit.

NS: per simplex exemplum?

Дс: Data in Docker imaginem directe reponitur. Illae. Imaginem habemus paratam, licet 100 GB. Per stratis in Docker, hanc imaginem totiens quotiens opus est celeriter explicari possumus. Modus stultus est, sed bene operatur.

NS: deinde, cum tentas, recte mutat Docker intus rectum? Exemplar scribe intus Docker - proice et iterum vade, omnia denique bona sunt. Class! Et iam ad plenissimam uteris?

Дс: iamdudum.

NS: simillima facimus. Tantum non utimur Docker-in-scribe, sed alio aliquo.

Дс: Non est generale. Et Docker ubique operatur.

NS: in theoria sic. Sed nos quoque modulos ibi habemus, diversos modulos facere potes et cum diversis systematibus lima operari. Quod momentum hic. A parte Postgres aliter haec omnia respicimus. Nunc ex Docker parte spectavi et vidi omnia opera tibi. Sed si datorum ingens est, exempli gratia, 1 TB, hoc totum est longum tempus: operationes nocturnae, et omnia in Docker... farciuntur. Et si 5 TB in Docker referta sunt... An denique omnia?

ДсQuid interest: hi sunt Blos, freni et bytes.

NSDiscrimen est hoc: tu id facis ac restitue?

Дс: minime necessarium. Modi huius imaginis generandi diversi esse possunt.

NS: Aliquot clientes eam fecimus ut pro basim imaginem regulariter generarent, eam constanter in moderno tempore servamus. Replica est essentialiter, sed non immediate a magistro, sed per archivum accipit notitia. Archivum binarium ubi WALs quotidie capiuntur, ubi tergum capiuntur... Hi WALs tunc basim imaginem cum levi mora attingunt (seu 1-2 secundis). Ab eo quovis modo clone, nunc per defaltam ZFS habemus.

Дс: Sed ZFS uno nodo limitantur.

NS: Ita. Sed ZFS etiam magicis misit: cum eo mittere potes snapshot et etiam (hoc tamen non probavi, sed…) della inter duas mittere potes. PGDATA. Re quidem vera aliud instrumentum habemus quod pro talibus officiis revera non expendimus. PostgreSQL est pg_rewindquae sicut "dolor" rsync operatur, multum transiliens quod vigilare non debes, quia nihil ibi mutatur. Eodem modo possumus synchronizationem celerem inter duos ministros et rewind.

Ex hac ergo parte DBA plura conamur instrumentum creare quod idem nobis facere permittit quod dixisti: unum database habemus, sed velimus aliquid 50 temporibus, eodem fere tempore experiri.

Дс: 50 times means you need to order 50 Spot instances.

NSNequaquam in una machina omnia agimus.

Дс: Sed quomodo 50 tempora expandes si hoc unum datorum est, dic terabyte. Verisimile maxime indiget conditione 256 GB ipsius RAM?

NS: Etiam interdum multum memoria opus est - id normalem. Sed hoc est exemplum vitae. Factio machinae 96 coros et 600 GB habet. Eodem tempore, 32 nuclei (etiam 16 nuclei nunc interdum) et 100-120 GB memoriae pro datorum adhibitis.

ДсEt 50 exemplaria ibi coaptantur?

NS: ergo unum tantum exemplar est, deinde opera-in-scribe (ZFS) opera ... Dicam planius.

Exempli gratia, 10 TB database habemus. Disci illi fecerunt, ZFS etiam magnitudinem suam per 30-40 centesimas compresserunt. Cum probationem non facimus, tempus exiguum responsum non est nobis momenti: sit usque ad 2 tempora tardius - id bene est.

Occasionem programmatibus, QA, DBA, etc. praestare probatio 1-2 relatorum. Exempli gratia currerent aliquam migrationem. Non statim requirit 10 coros - eget 1 Postgres backend, 1 core. Donec adipiscing incipiet - maybe autovacuum adhuc incipiet, tunc nucleus secundus adhibebitur. Cores 16-32 collocari habemus, ut 10 homines simul laborare possint, nulla difficultas.

Quia corporaliter PGDATA idem, quod vere decipit Postgres evenit. Dolum hoc est: exempli causa, 10 Postgres simul sunt excussae. Quid est problema plerumque? Posuerunt shared_buffers, 25% dicamus. Itaque hoc 200 GB. Plus quam tria ex his mittere non poteris, quia memoria deficient.

Sed aliquando intelleximus hanc non esse necessariam: nos communicavimus ad 2 GB. PostgreSQL est effective_cache_sizeet in re solus id movet consilia. 0,5 TB. Nec refert quod revera non sint: facit ut sint consilia.

Itaque, cum aliquam migrationem experimur, omnia consilia colligere possumus - videbimus quomodo in productione fiat. Secundae diversae erunt (tardior), sed notitia quam actu legitur, et ipsa consilia (quod ibi IOINs sunt, etc.) idem prorsus evenit ac in productione. Et multa talia in una machina parallela incurrere potes.

ДсPutasne hic paucas esse quaestiones? Prima est solutio quae solum operatur in PostgreSQL. Accessus valde privatus, non genericus est. Secundum est quod Kubernetes (et omnia quae technologiae nubilum nunc eunt) multas nodos involvit, et hae nodi evanidae sunt. Et in tuo casu est nodus erectus et pertinax. Haec me discordant.

NSPrius assentior, Postgres tantum haec fabula est. Cogito si nos aliquod genus directum IO et quoddam quiddam piscinae ad omnem fere memoriam, aditus non laborabit - consilia diversa erunt. Sed nunc solum cum Postgres laboramus, de aliis non cogitamus.

About Kubernetes. Tu nobis ipse narras quod pervicax habemus database. Si instantia deficiat, summa res est ad salutem orbis. Hic etiam totum suggestum in Kubernetes habemus, et component cum Postgres separatum est (quamvis unus dies ibi erit). Ergo omnia sunt huiusmodi: instantia cecidit, sed salvavimus PV et simpliciter illud alteri connexum, quasi nihil accidisset.

Дс: Ex mea parte siliquas in Kubernetes creamus. K8s - elastica: nodos ordinantur ut opus sit. Negotium est solum vasculum creare et dicere quod opibus X indigere, tum K8s per se ipsum viderit. At firmamentum in Kubernetes reposita adhuc instabile est; 1.16apud 1.17 (Hoc release dimissi una sabbatorum abhinc) haec lineamenta tantum beta fiunt.

Sex menses ad annum transibunt, plus minusve stabilis fiet, vel saltem ut talis declarabitur. Tunc possibilitas snapshots et resize problema tuum perfecte solvit. quia turpem habes. Imo, non potest esse velocissimus, sed celeritas ab eo quod est "sub cucullo" dependet, quia nonnulla exsecutiones imitari et scribere possunt in orbis subsystem in gradu scribendo.

NS: Necesse est etiam omnibus tormentis (Amazon , Google...) incipere huic versioni favere - hoc quoque aliquo tempore sumit.

Дс: nondum iis utimur. Nostro utimur.

Progressus localis ad Kubernetes

NS: Invenisti talem votum cum debes omnes siliquas in una machina instituere et tam parvam experimentum facere. Ut cito conceptus probationem accipias, vide applicationem in Kubernetes currere, quin fasciculum machinarum dedicaverit. Minikube ibi est, vox?

Дс: Mihi videtur hunc casum - una nodo explicari - solum circa localem progressionem. Vel aliquas manifestationes talium exemplarium. Eat Minikubeibi k3s, BENEDICUS. Ad usus Kubernetes IN Docker movemur. Nunc incepit opus cum eo pro probationibus.

NS: putabam hoc conatum fuisse omnes siliquas in una Docker imagine involvere. Sed accidit quod hoc sit de re omnino diversum. Alioqui sunt vascula separata, siliquae separatae, sicut in Docker.

Дс: Ita. Et est imitatio magis ridicula, sed sensus talis est... Utilitatem instruendi habemus. werf *. Facere hoc modus conditionalis werf up: " Accipe me loci Kubernetes." Et tunc currunt conditionales ibi werf follow. Tunc elit IDE emendare poterit, et processus in systemate deducetur qui mutationes et imagines reaedificabit videt, easque ad locales K8s convertens. Hac de causa quaestionem localis evolutionis solvere conari volumus.

Snapshots et database exquisitis in K8s veritas

NS: si redeamus ad exemplum-in-scribo. Animadverti etiam nubes habere snapshots. Aliter operantur. Exempli gratia, in GCP: exemplum habes multi-terabyte in ora orientali Civitatum Foederatarum. Tu snapshots periodice. Exemplar orbis in oram occidentalem e snapshot - paucis minutis omnia parata sunt, quod celerrime operatur, solum cella in memoria debet impleri. Sed hae clones (snapshots) sunt in ordine ad commeatum novum volumen. Hoc frigidum est, cum exempla multa facere debes.

Sed per probationes, videtur mihi esse snapshots, quos in Docker aut loqui in ZFS, btrfs et etiam LVM... - permittunt te ne in una machina re novas notitias creare. In nube, semper eis reddes et non secunda, sed minuta (et in casu) expectabis piger onusfortasse vigilia).

Potius quam in secundo vel altero datam hanc accipere potes, experire et proice abs te. Haec snapshots alia problemata solvenda. In primo casu, scandere et novas replicationes accipere, et in secundo pro probationibus.

Дс: non accedo. Volumen exquisitum operis proprie facere est negotium caliginis. Exsecutionem eorum non vidi, sed scio quomodo in ferramentis id facimus. Habemus Ceph, id quodlibet volumen physicum admittit.RBD) dicunt cDNA clone: et accipe volumen alterum cum eiusdem notis decem milliseconds; IOPSami, etc. Opus est ut intelligas in promptu esse exemplar-in-scribendum intus. Cur non idem facit nubes? Hoc uno vel alio modo facere certo conantur.

NS: Sed adhuc tollet eas secundas, decem secundas ad excitandum instantias, affer Docker ibi, etc.

Дс: Cur necessarium est totum instantia movere? Exemplum habemus cum 32 coreis, 16. ... et in eo quadrare potest, exempli gratia quattuor. Cum quintam iubemus, instantia iam tolletur, et tunc delebitur.

NS: Ita, interesting, Kubernetes aliam fabulam evadit. database in K8s non est, et unum exemplum habemus. Sed exquisitis datorum multi-terabyte non plus quam duas secundas accipit.

Дс: Hic est bonissimus. Sed initium meum est hanc solutionem generalem non esse. Etiam frigus est, sed solum idoneum est pro Postgres et una tantum nodo.

NS: Convenit non solum Postgres: haec consilia, ut diximus, in eo tantum operantur. Sed si de consiliis non curamus, et omnes notitias probationis functionis tantum indigemus, hoc cuilibet DBMS aptum est.

Дс: Multos annos aliquid simile egimus in LVM snapshots. Ordo est. Aditus acerrime usus est. Nodorum status dolor iustus. Quia non debes eas decidere, semper debes earum meminisse.

NS: Videsne hie hybrid possibilitatem aliquam? Dicamus statum esse quoddam vasculi genus, quod operatur pluribus (multis testers). Unum volumen habemus, sed propter rationem tabellae, clones locales sunt. Si legumen cadit, sed orbis manet, vasculum surget, informationes numera de omnibus clonibus, omnia iterum collige ac dic: "Ecce clones tuae in his portibus currentes, cum illis operando permane."

Дс: Technice hoc significat intra Kubernetes unum vasculum esse intra quod multa Postgres curritur.

NS: Ita. modum habet: nihil dicamus plus quam 10 homines cum eo simul laborant. Si 20 opus est, alterum tale vasculum mittemus. Id plenius clone, secundo pleno volumine accepto, easdem 10 clones tenues habebit. Non vides hanc occasionem?

Дс: Oportet nos hic addere quaestiones securitatis. Hoc genus regiminis implicat hoc vasculum magna privilegia habere (facultates), quia operationes non normas in tabella systematis facere potest... Sed repeto: credo in medio termino in Kubernetes repositiones figere, et in nubes omnia voluminibus figent fabulam — omnia « opera iusta ». Resize erit, exquisita... Volumen est - dicimus: "Novum ex eo crea", et post alterum et dimidium accipimus quod opus est.

NS: una et dimidia pro multis terabytis secundis non credo. De Ceph tu ipse facis, sed loqueris de nubibus. Vade ad nubem, fac clone volubilis multi- terabyte EBS in EC2 et vide quid futurum sit. Non brevi tempore. Curabitur sit amet enim in ipsum tempor sagittis at at eros. Intelligo quid dicas, sed differre oro.

ДсBene, sed dixi in medio termino, non brevi termino. Aliquot annis.

De operante pro PostgreSQL ab Zalando

In hoc medio congressu Alexey Klyukin, quondam e Zalando elaboratus, etiam iunctus est et locutus est de historia operantis PostgreSQL:

Magnum est quod hic locus in genere tangitur: tum Postgres et Kubernetes. Cum Zalando in 2017 facere coepimus, locus erat quem omnes facere voluerunt, sed nemo fecit. Omnes iam Kubernetes habebant, sed cum rogabant quid cum database ageret, etiam homines amant Kelsey Hightowerpredicans K8s dixit simile;

“Ite ad officia administranda et illis utere, database in Kubernetes non curre. Alioquin tuum K8s iudicabit, exempli gratia, upgrade ut faciamus, omnes nodos averte, et notitia tua longe volabit, procul esto.

Nos operatorem statuere decrevimus ut, praeter hoc consilium, in Kubernetes datorum Postgres immitteret. Et bonam causam habuimus - Patroni. Hoc defectivum latae sententiae pro PostgreSQL, recte factum, i.e. utens etc., consul vel ZooKeeper ut tabularium informationum de botro. Talis repositio, quod omnibus petenti tribuet, exempli gratia, quid dux currens sit, eadem notitia — non obstante quod omnia distributa habemus — ut cerebrum non sit scissum. Plus habuimus Docker image pro eo.

In genere, societas pro auto failover opus apparuit postquam ex ferramentis internis ad nubem migrans. Nubes in solutione proprietatis Paas (Platform-as-a-Service) fundata est. Est Patefacio Source, sed multum laboris accepit ut currit et pervenit. Dicebatur STUPS.

Initio non erat Kubernetes. Accuratius, cum explicatur nostra solutio, K8s iam exstitit, sed tam rudis fuit ut ad productionem non apta esset. Fuit, opinor, MMXV vel MMXVI. By 2015, Kubernetes magis minusve mature facti sunt – illuc migrandum opus erat.

Et iam habuimus continens Docker. Fuit Paas, quo usus est Docker. Quidni conaris K8s? Cur operator tuum non scribis? Murat Kabilov, qui ab Avito ad nos venit, hoc consilium incepit per se ipsum - "ludere" - et consilium "abstulit."

Sed generaliter loqui volui de AWS. Quare historicum AWS codicem relatum est...

Cum aliquid in Kubernetes curritis, intelligere debes K8s tale opus in progressu esse. Constanter enucleando, emendando ac etiam subinde dissolvendo. Opus est ut ad omnes mutationes in Kubernetes prope perspicias, paratus debes in illam intendere, si quid evenit ac discas quomodo singillatim operetur - fortasse plus quam vis. Hoc in principio, ad quodlibet suggestum applicat quo databases tuas curris...

Itaque, cum enuntiationem fecimus, in externum volumen currebamus Postgres (EBS in hoc casu, cum in AWS laboramus). Creverunt database, aliquando necesse erat eam resizare: exempli gratia, magnitudo EBS initialis 100 TB erat, illi datorum crevit, nunc EBS 200 TB facere volumus. Quam? In novo instantia potes dicere TUBER/restituere, sed hoc longum erit tempus et tempus involvit.

Ideo volui resize quae partitionem EBS augeret ac deinde ratio tabellae ad novum spatium utendum indicaret. Et hoc fecimus, sed tunc Kubernetes non habuit aliquam API pro resize operatione. Cum in AWS elaboravimus, codicem eius API scripsimus.

Nemo te prohibet in aliis suggestis idem facere. Nulla in re significatio est quod solum potest currere in AWS, et in omnibus aliis non laborabit. Fere hoc project Source est: si quis emergentem usum novi API velit accelerare, acceptus es. Eat GitHub, petitiones collige - Zalando manipulus illis respondere conatur satis cito ac operatorem promovere. Quantum scio, exertus participatur apud Google Summum Codicis aliaque similia incepta. Zalando valde strenue laborat in ea.

PS Bonus!

Si interesse in themate PostgreSQL et Kubernetes, etiam notare placet quod proximo Postgres Martis proximo hebdomade evenisse, ubi cum Nikolai locutus sum. Alexander Kukushkin de Zalando. Video ex eo praesto est hic.

PPS

Lege etiam in nostro diario:

Source: www.habr.com

Add a comment