Admin sine manibus = hyperconvergence?

Admin sine manibus = hyperconvergence?
Admin sine manibus = hyperconvergence?

Haec fabula est satis usitata in agro odio servitoris. In praxi, hyperconvergiae solutiones (cum omnia in uno sunt) multis rebus requiruntur. Historice, architecturae primae ab Amazone et Google ob operas suas explicatae sunt. Tunc cogitavit de nodis identicis fundum computare facere, quorum unumquodque erat suum orbium. Haec omnia a programmatibus quibusdam systematis hypervisoris (hypervisoris) coniuncta sunt et in machinis virtualibus divisa sunt. Praecipua finis est minimum operae ad unam nodi operandam et minimam problematum scalam: modo alia milia vel duos ex eisdem servientibus emere et eas prope coniunge. In usu sunt casus separatim, et multo saepius de paucioribus nodis et de paulo aliter architectura loquimur.

Sed plus manet idem,- incredibilem facilitatem scandendi et administrandi. In downside est, quod diversae functiones aliter facultates consumunt, et in quibusdam locis multum orbis localis erit, in aliis parum RAM, et sic deinceps, hoc est, pro diversis operum generibus, facultatis utendo decrescet.

Evenit ut 10-15% plus solvas pro facilitate setup. Haec fabula excussit in titulo. Diu quaesivimus ubi technicae bene applicatae essent et invenimus eam. Ita factum est, ut Cisco systemata sua reposita non haberet, sed mercatum servarium integrum voluit. Et fecerunt Cisco Hyperflex solutionem cum repositione locorum nodis.

Hoc repente evenit ut optima solutio ad tergum notitia centra (Disaster Recuperatio). Dicam quare et quomodo nunc. Et ego botrum monstrabo tibi.

Ubi opus?

Hyperconvergence est:

  1. Disci transferentes ad nodos computant.
  2. Plena integratio subsystem subsystem cum virtualizatione subsystem.
  3. Transfer/integratio cum subsystem retiacula.

Coniunctio haec permittit vos efficere plures lineas repono systematis ad virtualizationis gradum et omnia ex una potestate fenestra.

In nostra societate, incepta ad designandum data centra redundantia in magnis postulantibus, et saepe solutio hyperconvergi eligitur propter fasciculum optionum replicationis (usque ad metrocluster) extra cistam.

In casu tergum notitiarum centra, solemus loqui de facilitate remota in situ alterius urbis vel in alia urbe omnino. Permittit te ut systemata critica restituas in evento partialis vel perfecti defectus centri principalis. Venditio data constanter ibi replicatur, et haec replicatio potest esse in gradu applicationis vel in gradu clausus (repono).

Nunc ergo de ratione consilio et probationibus loquar, ac deinde de duobus missionibus realibus vitae applicatione cum peculio dato.

probat

Instantia nostra quattuor servientibus constat, quorum unumquodque 10 SSD agitationes 960 GB habet. Orbis dedicatus est ad operationes scribendas caching conditum ac ministerium machinae virtualis reponendam. Ipsa solutio est quartae literae. Prima est ingenue rudis (a aestimationes iudicans), secunda humida, tertia iam satis stabilis, et haec potest dici emissio post finem betae probationis in publico. Per probationem quaslibet difficultates non vidi, omnia sicut horologium operatur.

Mutationes in v4Fasciculumque cimices praefixum.

Initio suggestum hypervisoris ESXi cum VMware tantum operari potuit et parvum numerum nodis sustentavit. Etiam, processus instruere non semper feliciter finem habuit, aliquot gradus ut sileo debuissent, difficultates adaequationis e vetustioribus versionibus factae sunt, in GUI data non semper recte (quamvis adhuc non sum laetus in graphis faciendis ostentatione. ) interdum oriuntur problemata intermediam virtualizationis .

Nunc omnes difficultates pueriles fixae sunt, Hyperflex tractari potest tam ESXi et Hyper-V, plus quam possibilis est;

  1. Botrus extentum creans.
  2. Botrus pro officiis creandis sine Fabric Interconnect, a duobus ad quatuor nodis (modo servientes emimus).
  3. Facultatem ad operandum systemata externa repono.
  4. Firmamentum continentia et Kubernetes.
  5. De creatione promptitudinis zonis.
  6. Integratio cum SRM VMware si aedificata in functione non satisfacit.

Architectura non multum differt a solutionibus competitorum principalium: birotam non creaverunt. Totum decurrit in suggestu VMware vel Hyper-V virtualizationis. Ferramenta hosted in servientibus proprietatis Cisco UCS. Sunt qui oderint suggestum pro multiplicitate relativa initialium imaginum, multarum globuli, systema non-levis templates ac clientelas, sed sunt etiam ii, qui Zenum didicerunt, idea incitantur ac non desunt. cum aliis servientibus laborare.

Solutionem pro VMware considerabimus, cum solutio pro eo primum creata sit et plus functionis habeat, Hyper-V in via addita est ut cum competitoribus sustineatur et exspectationi mercaturae occurrat.

Botrus servientium plenus est orbis. Disci sunt pro notitia repositionis (SSD vel HDD - secundum tuum gustum et necessitates), unus est orbis SSD pro caching. Cum scribens ad notarium, notitia conservatur in strato cachinno (SSD orbis ac RAM servitii VM dedicata). Parallela, truncus notitiarum ad nodi in botro mittitur (numerus nodum secundum factorem replicationis botri pendet). Post confirmationem ab omnibus nodis de memoria bene gesta, confirmatio recordationis mittitur ad hypervisorem et deinde ad VM. Notitia memoriae deducitur, compressa et scripta ad orbis repositionis in curriculo. Eodem tempore, stipes magnus semper ad orbis repositorium et continue scriptus est, qui sarcinam in disco repositorium minuit.

Deduplicatio et compressio semper efficiuntur nec debilitari possunt. Data directe e repositionis orbis vel e cella arietino legitur. Si figura hybrida adhibeatur, leguntur etiam in SSD conditivo.

Notitia non ligatur ad praesentem locum machinae virtualis et aequaliter inter nodos distribuitur. Hic aditus permittit ut omnes orbis ac retis interfaces aeque oneratis. Incommodum evidens est: latentiam legere quam maxime possumus reducere, cum nulla sit promissi notitiae loco. Sed credo hoc minoris sacrificii comparati beneficiis acceptis. Morae retiacula praeterea ad tales valores pervenerunt ut effectum universalem re non afficiant.

Peculiare ministerium VM Cisco HyperFlex Data Platform moderatoris, qui in utraque nodi reposita creatur, totius operationis logicae orbis subsystem responsale est. In nostro servitio VM configuratione, octo vCPUs et 72 GB ipsius RAM distributi sunt, quod non ita parum est. Admoneam te ipsum exercitum habere 28 nucleos et 512 GB of RAM.

Ministerium VM accessum habet ad orbis physici directe procurando moderatorem SAS ad VM. Communicatio cum hypervisore fit per singularem modulum IOVisorem, qui operationes I/O intercipit, et utens agente qui permittit ut iubeas mittere ad hypervisorem API. Agens est responsabilis operandi cum HyperFlex snapshots et clones.

Facultates orbis hypervisoris conscenduntur sicut NFS vel SMB participat (prout species hypervisoris, coniecturae qua quis est ubi). Et sub cucullo, haec est distributa ratio fasciculi quae tibi permittit addere lineamenta systematum repositionis adulti plenae: tenues destinatio, compressio et deduplicatio, snapshots technologiae redirectae-in-scribe, replicationis synchronae/asynchronae.

Ministerium VM accessum praebet ad administrationem WEB interfaciendi HyperFlex subsystem. Integratio cum vCenter est, et maxime cotidiana opera ex eo perfici possunt, sed datatores, exempli gratia, commodius sunt a webcam separato secare, si iam ad interface ieiunium HTML5 transibis, vel utere clienti cursore pleno cum plena integritate. In servitio webcam observantiam ac distinctum statum systematis inspicere potes.

Admin sine manibus = hyperconvergence?

Alterum genus nodi in botro - nodis computatis. Hi eculei vel laminae servientes esse possunt sine in orbes constructo. Hi servientes currere possunt VMs quorum notitia in servientibus cum orbis reponitur. Ex parte accessus notitiae, nihil interest inter nodos genera, quia architectura abstrahendo a corporeis situ notitia. Maxima ratio computandi nodos ad nodos reponendos est 2:1.

Nodi computandi usus flexibilitatem auget cum facultates botri ascendentes: nodos additos cum orbes emendare non habemus, si CPU/RAM tantum indigemus. Praeterea caveam scapulam addere possumus et nisi in eculeo positio servientium potest.

Quam ob rem suggestum hyperconverges habemus cum his lineamentis;

  • Usque ad 64 nodi in botro (usque ad 32 nodos repositorium).
  • Numerus nodi minimus in botro est tres (duo pro limbo botri).
  • Data mechanismi nugatio: speculum replicationis factoris 2 et 3 .
  • Metra botrus.
  • Asynchronous VM replicatio ad aliam hyperflex botrum.
  • Orchestratio mutandi VMs ad Mauris interdum remota.
  • Patria snapshots usura Redirect-in-Write technology.
  • Usque ad 1 PB spatii utibilis ad factorem 3 replicationis et sine deduplicatione. Non rationem habemus replicationis factoris 2, quia haec optio gravis venditio non est.

Alius ingens plus est otium procurationis et instruere. Omnes complexitates erectionis UCS servientium curatae sunt a specialioribus VM a fabro Cisco praeparatis.

Configuratione scamnum test:

  • 2 x Cisco UCS Fabric Interconnect 6248UP ut botrum et retiacula procuratio partium (48 portus operandi in Aerne 10G/FC 16G modo).
  • Quattuor Cisco UCS HXAF240 M4 servientibus.

Servo characteres:

cpu

2 x Intel® Xeon® E5-2690 v4

RAM

16 x 32GB DDR4-2400-MHz RDIMM/PC4-19200/dual rank/x4/1.2v

Network

UCSC-MLOM-CSC-02 (VIC 1227). 2 10G Aer portus

Repono HBA

Cisco 12G Modular SAS Transite per Controller

Repono Orbis

1 x SSD Intel S3520 120 GB, 1 x SSD Samsung MZ-IES800D, 10 x SSD Samsung PM863a 960 GB

Magis configuratione optionesPraeter ferramenta selecta, sequentia optiones in promptu sunt:

  • HXAF240c M5.
  • Unus vel duo CPUs ab Intel Argento 4110 ad Intel Platinum I8260Y. Secundae generationis available.
  • 24 foramina memoriae, exuit ex 16 GB RDIMM 2600 ad 128 GB LRDIMM 2933 .
  • Ab 6 ad 23 orbes datae, unum disci caching, unum disci systematis et unum orbis tabernus orbis.

capacitas Drives

  • HX-SD960G61X-EV 960GB 2.5 Inch Enterprise Value 6G SATA SSD (1X patientia) SAS 960 MB.
  • HX-SD38T61X-EV 3.8TB 2.5 inch Enterprise Value 6G SATA SSD (1X patientia) SAS 3.8 TB.
  • Caching Drives
  • HX-NVMEXPB-I375 375GB 2.5 inch Intel Optane Coegi, Extreme Perf & Patientia.
  • HX-NVMEHW-H1600* 1.6TB 2.5 inch Ent. Perf. NVMe SSD (3X patientia) NVMe 1.6 TB.
  • HX-SD400G12TX-EP 400GB 2.5 inch Ent. Perf. 12G SAS SSD (10X patientia) SAS 400 GB.
  • HX-SD800GBENK9** 800GB 2.5 inch Ent. Perf. 12G SAS SED SSD (10X patientia) SAS 800 GB.
  • HX-SD16T123X-EP 1.6TB 2.5 inch Inceptum perficiendum 12G SAS SSD (3X patientia).

Ratio / Log Drives

  • HX-SD240GM1X-EV 240GB 2.5 inch Enterprise Value 6G SATA SSD (Requirit upgrade).

tabernus Agitet

  • HX-M2-240GB 240GB SATA M.2 SSD SATA 240 GB.

Pertinent ad retiaculum per 40G, 25G vel 10G portus Aer.

FI potest esse HX-FI-6332 (40G), HX-FI-6332-16UP (40G), HX-FI-6454 (40G/100G).

Ipsum test

Ad temptare subsystem disci subsystem, HCIBench 2.2.1. Haec utilitas gratuita est quae te ex multis virtualis machinis creari oneris sinit. Generatur ipsum onus solito fio.

Botrus noster quattuor nodis constat, factor replicationis 3, omnes orbis sunt Flash.

Ad probandum, quattuor datastores et octo machinas virtuales creavi. Scribere enim probationes, ponatur non plenum orbis caching.

Proventus probatus sic sunt:

C% Read C% Random

0% Read C% Random

Obstructionum / queue profundum

128

256

512

1024

2048

128

256

512

1024

2048

4K

0,59 ms 213804 IOPS

0,84 ms 303540 IOPS

1,36ms 374348 IOPS

2.47 ms 414116 IOPS

4,86ms 420180 IOPS

2,22 ms 57408 IOPS

3,09 ms 82744 IOPS

5,02 ms 101824 IPOS

8,75 ms 116912 IOPS

17,2 ms 118592 IOPS

8K

0,67 ms 188416 IOPS

0,93 ms 273280 IOPS

1,7 ms 299932 IOPS

2,72 ms 376,484 IOPS

5,47 ms 373,176 IOPS

3,1 ms 41148 IOPS

4,7 ms 54396 IOPS

7,09 ms 72192 IOPS

12,77 ms 80132 IOPS

16K

0,77 ms 164116 IOPS

1,12 ms 228328 IOPS

1,9 ms 268140 IOPS

3,96 ms 258480 IOPS

3,8 ms 33640 IOPS

6,97 ms 36696 IOPS

11,35 ms 45060 IOPS

32K

1,07 ms 119292 IOPS

1,79 ms 142888 IOPS

3,56 ms 143760 IOPS

7,17 ms 17810 IOPS

11,96 ms 21396 IOPS

64K

1,84 ms 69440 IOPS

3,6 ms 71008 IOPS

7,26 ms 70404 IOPS

11,37 ms 11248 IOPS

Audax indicat valores, quibus nulla in fructibus aucta est, interdum etiam turpitudo visibilis est. Hoc accidit ex eo quod perficiendo retiacula/ministris/disklis limitamur.

  • Sequentiale legitur 4432 MB/s.
  • Sequential scribe 804 MB/s.
  • Si unus moderator desit (defectum machinae vel exercitus virtualis), duplex effectus est gutta.
  • Si repositio orbis deficit, drawdown est 1/3. Orbis V% de opibus cuiusque moderatoris reficere sumit.

In parvo stipite limitamur per moderatoris (virtualis apparatus), eius CPU ad C% oneratur, et cum scandalum augetur, a Sede portu limitamur. 100 Gbps non satis est ad potentiam AllFlash systematis reserare. Infeliciter, parametri demom provisorum stent non sinunt nos operationem experiri in 10 Gbit/s.

In impressione a probationibus et studiis architecturae, propter algorithmum, quae loca inter omnes virtutes datas sunt, consequimur scalabilem, praenuntiabilem effectum, sed etiam haec est limitatio cum legendi, quia ex orbis locali magis exprimi posset; hic retis uberiorem servare potest, exempli gratia, FI ad 40 Gbit/s praesto est.

Item unus orbis pro caching et deduplicatione limitatio potest esse, immo in hoc testbedo scribere possumus quattuor orbis SSD. Multum esset ut numerus cogat et augere possit videre differentiam caching.

Verus usus

Tergum ad centrum datorum ordinare, duobus accessibus uti potes (non consideramus tergum ponens in situ remoto);

  1. Active-Passivus. Omnes applicationes in principali Mauris interdum tincidunt. Replicatio synchrona vel asynchrona est. Si centrum principale deficit, opus est unum tergum movere. Hoc fieri potest applicationes manually/scriptiones/orchestrationis. Hic RPO commensuratum habebimus cum replicatione frequentiae, et RTO pendet a reactione et solers administratoris et qualitate evolutionis/debuging consilii mutandi.
  2. Activum-Activum. In hoc casu tantum est replicatio synchrona, disponibilitas centrorum datorum determinatur per arbitrum in tertio situ stricte locatum. RPO = 0, et RTO 0 (si applicatio admittit) vel aequale tempori deficienti nodi in botro virtuali. In gradu virtualizationis, botrus extensus (Metro) creatus est qui repono activa-activas requirit.

Solet videmus clientes architecturae iam implevisse cum systema repositionis classicae in centro principali notitiae, sic alterum ad replicationem designamus. Ut dixi, Cisco HyperFlex replicationem asynchronam offert et extensam virtualizationis botri creationem. Eodem tempore non egimus systema repositionis consecratae in gradu mediterraneo et altiori cum pretiosa replicatione functionum et activae notitiae accessus ad duas systemata repono.

varius varius II; Praecipua et tergum data centra habemus, virtualizationis suggestum in VMware vSphere. Omnes systemata productiva in centro principali notitiae collocantur, et replicatio machinarum virtualium in gradu hypervisoris fit, hoc vitabit observatio VMs in centrum notitiae tergum vertentis. Replicamus databases et speciales applicationes utentes in instrumentis constructis et in VMs servamus. Si centrum principale deficit, systemata in tergum Mauris interdum deducimus. Credimus nos circiter 100 machinas virtuales habere. Cum centrum primarium notitiarum perficiendis sit, centrum notitiarum standi probare possunt ambitus et alia systemata, quae occludi possunt, si primarium centrum virgas transmittit. Fieri etiam potest, ut duorum modorum replicatio utamur. Ex hardware parte nihil mutatur.

In architectura classica, in unaquaque notitia centrum systematis repono hybrid instituemus cum accessu per FibreChannel, ligamen, deduplicationem et compressionem (non autem online), 8 servientes pro singulis locis, 2 virgas FibreChannel et 10G Aer. Pro replicatione et commutatione administratione in architectura classica, instrumenta VMware (Replicatio + SRM) vel instrumenta tertia factionis uti possumus, quae paulo vilius et interdum commodius erit.

Figura figuram ostendit.

Admin sine manibus = hyperconvergence?

Cum utens Cisco HyperFlex, haec architectura obtinetur;

Admin sine manibus = hyperconvergence?

Pro HyperFlex, servitoribus magnis CPU/RAM usus sum, quia... Aliquae facultates ad HyperFlexum moderatorem VM accedent, in verbis CPU et memoria, etiam figuram HyperFlexam re- formarunt aliquantulum ut non una cum Cisco ludere ac facultates pro reliquis VMs praestare. Sed permutationes FibreChannel deserere possumus, et portus Aernet pro unoquoque servo non egent, negotiatio localis intra FI.

Effectus erat talis figurae inter centrum datae;

Servers

8 x 1U Servo (384 GB RAM, 2 x Aurum Intel 6132, FC HBA)

8 x HX240C-M5L (512 GB RAM, 2 x Aurum Intel 6150, 3,2 GB SSD, 10 x 6 TB NL-SAS)

SHD

Systema repositionis hybridarum cum FC Front-End (20TB SSD, 130 TB NL-SAS)

-

LAN

2 x Aer switch 10G 12 portus

-

SAN

2 x FC switch 32/16Gb 24 port

2 x Cisco UCS FI 6332

licentias

VMware Ent Plus

Replicatio et/vel orchestratio VM commutatione

VMware Ent Plus

Replicationem programmatum Hyperflexi licenciis non dedi, cum haec nobis e pixide suppetant.

Architectura classica, lorem lectus auctor consequat quis auctor ipsum. Pro utroque bene, signum discount solutionis certae apposui, et inde pretia vera accepi.

Solutio HyperFlex Cisco evasit 13% vilior.

varius varius II; creatio duorum activae data centra. In hoc sem, botrum porrectum in VMware cogitamus.

Architectura classica constat ex servientibus virtualisationi, a SAN (protocollo FC) et in duobus systematibus repono quae in volumine inter eos extentae legere et scribere possunt. In unaquaque repositionis systemate utilem capacitatem repositionis ponimus.

Admin sine manibus = hyperconvergence?

In HyperFlex simpliciter botrum extendere cum totidem nodis in utroque situs creamus. Hoc in casu, replicatio factoris 2+2 adhibetur.

Admin sine manibus = hyperconvergence?

Configuratio sequentis effectus est:

architectura classica

HyperFlex

Servers

16 x 1U Servo (384 GB RAM, 2 x Aurum Intel 6132, FC HBA, 2 x 10G NIC)

16 x HX240C-M5L (512 GB RAM, 2 x Aurum Intel 6132, 1,6 TB NVMe, 12 x 3,8 TB SSD, VIC 1387).

SHD

2 x AllFlash systemata repono (CL TB SSD)

-

LAN

4 x Aer switch 10G 24 portus

-

SAN

4 x FC switch 32/16Gb 24 port

4 x Cisco UCS FI 6332

licentias

VMware Ent Plus

VMware Ent Plus

In omnibus calculis non consideravi retis infrastructuram, centrum datarum gratuitarum, etc.: iidem erunt pro architectura classica et solutione Hyperflexa.

Secundum sumptus, HyperFlex evasit 5% magis carus esse. Notatu dignum hic est in terminis CPU/RAM facultates quas habui pro Cisco skew, quia in configuratione canales moderatoris memoriam aequaliter implevi. Sumptus leviter superior est, sed non ordine magnitudinis, quod clare indicat hyperconvergentiam necessario non esse "toy pro divitibus", sed certare cum norma accessus ad centrum datorum aedificandum. Hoc quoque interesse potest iis qui iam habent Cisco UCS ministratores et debitam infrastructuram pro eis.

Inter commoda, absentia gratuita obtinemus ad systemata SAN et repositionis administrandae, compressionem et deduplicationem online, punctum unicum ad sustentationem (virtualizationis, servientes, sunt etiam systemata repono), spatium salvificum (sed non in omnibus missionibus); simpliciorem operationem.

Ad subsidium, hic habes a venditore - Cisco. Experientia mea iudicantes cum servientibus Cisco UCS, id amo, illud in HyperFlex aperire non habui, omnia eodem modo operata sunt. Machinatores prompte respondent et non solum problemata typica, sed etiam ora implicatos casus solvere possunt. Aliquando ad eas interrogationes converto: "Potestne hoc facere, cochlea illud?" aut “hic aliquid figuravi et laborare non vult. adiuva!" - patienter invenient necessariam ducem ibi et rectas actiones demonstrabunt, non respondebunt: "Tantum problemata ferramenta solvenda".

References

Source: www.habr.com

Add a comment