Minska riskerna för stillestånd med Shared Nothing-arkitekturen

Ämnet feltolerans i datalagringssystem är alltid relevant, eftersom i vår tid av utbredd virtualisering och konsolidering av resurser är lagringssystem länken vars misslyckande inte bara kommer att leda till en vanlig olycka, utan till långvarig driftstopp för tjänster. Därför innehåller moderna lagringssystem många dubblerade komponenter (även styrenheter). Men är ett sådant skydd tillräckligt?

Minska riskerna för stillestånd med Shared Nothing-arkitekturen

Absolut alla leverantörer, när de listar egenskaperna hos lagringssystem, nämner alltid den höga feltoleransen för sina lösningar, och lägger alltid till termen "utan en enda punkt av fel." Låt oss ta en närmare titt på ett typiskt lagringssystem. För att undvika driftstopp i underhållet duplicerar lagringssystemet strömförsörjning, kylmoduler, in-/utgångsportar, enheter (vi menar RAID) och, naturligtvis, kontroller. Om du tittar noga på den här arkitekturen kommer du att märka minst två potentiella felpunkter, som är blygsamt tysta:

  1. Tillgänglighet för ett enda bakplan
  2. Att ha en kopia av uppgifterna

Bakplanet är en tekniskt komplex enhet som måste genomgå seriösa tester under produktionen. Och därför finns det extremt sällsynta fall när det helt misslyckas. Men även i fallet med partiella problem, såsom en icke-fungerande enhetsplats, kommer den att behöva ersättas med en fullständig avstängning av lagringssystemet.

Att skapa flera kopior av data är inte heller ett problem vid första anblicken. Till exempel är Clone-funktionen i lagringssystem, som låter dig uppdatera en komplett kopia av data med vissa intervall, ganska utbredd. Men vid problem med samma backplay kommer kopian att vara lika otillgänglig som originalet.

En helt uppenbar lösning för att övervinna dessa brister är replikering till ett annat lagringssystem. Om vi ​​blundar för den förväntade fördubblingen av kostnaden för hårdvara (vi antar fortfarande att människor som väljer ett sådant beslut tänker tillräckligt och accepterar detta faktum i förväg), kommer det fortfarande att finnas möjliga kostnader för att organisera replikering i form av licenser, ytterligare mjukvara och hårdvara. Och viktigast av allt, du måste på något sätt säkerställa konsistensen hos de replikerade data. De där. bygga en lagringsvirtualiserare/vSAN/etc., vilket också kräver pengar och tidsresurser.

AccelStor När vi skapar våra High Availability-system sätter vi ett mål att bli av med ovan nämnda brister. Så här dök tolkningen av Shared Nothing-tekniken ut, som löst översatt betyder "utan användning av delade enheter."

Koncept Delade ingenting arkitektur representerar användningen av två oberoende noder (kontroller), som var och en har sin egen uppsättning data. Synkron replikering sker mellan noder via InfiniBand 56G-gränssnittet, helt transparent för programvaran som körs ovanpå lagringssystemet. Som ett resultat av detta krävs inte användning av lagringsvirtualiserare, mjukvaruagenter etc.

Rent fysiskt kan tvånodslösningen från AccelStor implementeras i två modeller:

  • H510 — Baserat på tvillingservrar i ett 2U-fall, om måttlig prestanda och kapacitet upp till 22TB krävs;
  • H710 — baserat på individuella 2U-servrar, om hög prestanda och stor kapacitet (upp till 57 TB) krävs.

Minska riskerna för stillestånd med Shared Nothing-arkitekturen

Modell H510 baserad på tvillingserver

Minska riskerna för stillestånd med Shared Nothing-arkitekturen

Modell H710 baserad på individuella servrar

Användningen av olika formfaktorer beror på behovet av olika antal SSD:er för att uppnå en given volym och prestanda. Plus, Twin-plattformen är billigare och låter dig erbjuda mer prisvärda lösningar, om än med vissa villkorade "nackdelar" i form av ett enda bakplan. Allt annat, inklusive driftsprinciperna, är helt identiskt för båda modellerna.

Datauppsättningen för varje nod har två grupper FlexiRemap, plus 2 varma reservdelar. Varje grupp kan motstå fel på en SSD. Alla inkommande förfrågningar om att spela in en nod i enlighet med ideologi FlexiRemap bygger om 4KB-block till sekventiella kedjor, som sedan skrivs till SSD:n i det för dem mest bekväma läget (sekventiell inspelning). Dessutom får värden en inspelningsbekräftelse först efter att data fysiskt placerats på SSD:n, dvs. utan att cache i RAM. Resultatet är mycket imponerande prestanda med upp till 600K IOPS-skrivning och 1M+ IOPS-läsning (modell H710).

Som tidigare nämnts synkroniseras datamängder i realtid via InfiniBand 56G-gränssnittet, som har hög genomströmning och låg latens. För att utnyttja kommunikationskanalen så effektivt som möjligt vid överföring av små paket. Därför att Det finns bara en kommunikationskanal; en dedikerad 1GbE-länk används för ytterligare hjärtfrekvenskontroll. Endast hjärtslag sänds genom den, så det finns inga krav på hastighetsegenskaper.

Vid ökad systemkapacitet (upp till 400+TB) pga expansionshyllor de är också kopplade i par för att upprätthålla konceptet "no single point of failure".

För ytterligare dataskydd (utöver att AccelStor redan har två exemplar) används en speciell beteendealgoritm i händelse av ett fel på någon SSD. Om SSD:n misslyckas kommer noden att börja bygga om data på en av de heta reservenheterna. FlexiRemap-gruppen, som är i försämrat tillstånd, kommer att växla till skrivskyddat läge. Detta görs för att eliminera störningar mellan skriv- och ombyggnadsoperationer på säkerhetskopieringsdisken, vilket i slutändan påskyndar återställningsprocessen och minskar tiden när systemet är potentiellt sårbart. När ombyggnaden är klar återgår noden till normalt läs-skrivläge.

Minska riskerna för stillestånd med Shared Nothing-arkitekturen

Naturligtvis, precis som andra system, minskar den totala prestandan under ombyggnaden (trots allt fungerar inte en av FlexiRemap-grupperna för inspelning). Men själva återställningsprocessen sker så snabbt som möjligt, vilket skiljer AccelStor-system från lösningar från andra leverantörer.

En annan användbar egenskap hos Nothing Shared-arkitekturteknologin är driften av noder i det så kallade true active-active mode. Till skillnad från den "klassiska" arkitekturen, där endast en styrenhet äger en specifik volym/pool, och den andra helt enkelt utför I/O-operationer, i system AccelStor varje nod arbetar med sin egen uppsättning data och skickar inte förfrågningar till sin "granne". Som ett resultat förbättras den övergripande systemprestandan på grund av parallell bearbetning av I/O-förfrågningar av noder och åtkomst till enheter. Det finns praktiskt taget inget som heter failover, eftersom det helt enkelt inte finns något behov av att överföra kontrollen av volymer till en annan nod i händelse av ett fel.

Om vi ​​jämför Nothing Shared-arkitekturtekniken med fullfjädrad lagringssystemduplicering, så kommer den vid första anblicken att vara något sämre än den fullständiga implementeringen av katastrofåterställning i flexibilitet. Detta gäller särskilt för att organisera en kommunikationslinje mellan lagringssystem. Således är det i H710-modellen möjligt att sprida noder över ett avstånd på upp till 100m genom att använda inte särskilt billiga InfiniBand aktiva optiska kablar. Men även om man jämför med den vanliga implementeringen av synkron replikering från andra leverantörer genom en tillgänglig FibreChannel, även över längre avstånd, kommer lösningen från AccelStor att bli billigare och enklare att installera/drifta, eftersom det finns inget behov av att installera lagringsvirtualiserare och/eller integrera med programvara (vilket i princip inte alltid är möjligt). Glöm inte heller att AccelStor-lösningar är All Flash-arrayer med högre prestanda än "klassiska" lagringssystem med endast SSD.

Minska riskerna för stillestånd med Shared Nothing-arkitekturen

När du använder AccelStors Nothing Shared-arkitektur är det möjligt att uppnå 99.9999 % lagringssystemtillgänglighet till en mycket rimlig kostnad. Tillsammans med lösningens höga tillförlitlighet, inklusive genom användning av två kopior av data, och imponerande prestanda tack vare proprietära algoritmer FlexiRemap, lösningar från AccelStor är utmärkta kandidater till nyckelpositioner när man bygger ett modernt datacenter.

Källa: will.com

Lägg en kommentar