Reduser risikoen for nedetid med Shared Nothing-arkitekturen

Temaet feiltoleranse i datalagringssystemer er alltid relevant, siden i vår tid med utbredt virtualisering og konsolidering av ressurser, er lagringssystemer koblingen hvis feil ikke bare vil føre til en vanlig ulykke, men til langsiktig nedetid for tjenester. Derfor inneholder moderne lagringssystemer mange dupliserte komponenter (til og med kontrollere). Men er slik beskyttelse tilstrekkelig?

Reduser risikoen for nedetid med Shared Nothing-arkitekturen

Absolutt alle leverandører, når de lister opp egenskapene til lagringssystemer, nevner alltid den høye feiltoleransen til løsningene deres, og legger alltid til begrepet "uten et eneste feilpunkt." La oss se nærmere på et typisk lagringssystem. For å unngå nedetid i vedlikehold, dupliserer lagringssystemet strømforsyninger, kjølemoduler, inngangs-/utgangsporter, stasjoner (vi mener RAID) og selvfølgelig kontrollere. Hvis du ser nøye på denne arkitekturen, vil du legge merke til minst to potensielle feilpunkter, som er beskjedent stille:

  1. Tilgjengelighet av et enkelt bakplan
  2. Å ha én kopi av dataene

Bakplanet er en teknisk kompleks enhet som må gjennomgå seriøs testing under produksjonen. Og derfor er det ekstremt sjeldne tilfeller når det feiler fullstendig. Men selv i tilfelle av delvise problemer, for eksempel et ikke-fungerende stasjonsspor, må det erstattes med en fullstendig avslutning av lagringssystemet.

Å lage flere kopier av data er heller ikke et problem ved første øyekast. For eksempel er Clone-funksjonaliteten i lagringssystemer, som lar deg oppdatere en fullstendig kopi av data med noen intervaller, ganske utbredt. Men i tilfelle problemer med samme avspilling, vil kopien være like utilgjengelig som originalen.

En helt åpenbar løsning for å overvinne disse manglene er replikering til et annet lagringssystem. Hvis vi lukker øynene for den forventede doblingen av kostnadene for maskinvare (vi antar fortsatt at folk som velger en slik beslutning tenker tilstrekkelig og aksepterer dette faktum på forhånd), vil det fortsatt være mulige kostnader for å organisere replikering i form av lisenser, ekstra programvare og maskinvare. Og viktigst av alt, du må på en eller annen måte sikre konsistensen til de replikerte dataene. De. bygge en lagringsvirtualiserer/vSAN/etc., som også krever penger og tidsressurser.

AccelStor Når vi lager våre High Availability-systemer, satte vi oss et mål om å bli kvitt de ovennevnte manglene. Dette er hvordan tolkningen av Shared Nothing-teknologien dukket opp, som løst oversatt betyr "uten bruk av delte enheter."

Konseptet Delte ingenting arkitektur representerer bruken av to uavhengige noder (kontrollere), som hver har sitt eget sett med data. Synkron replikering skjer mellom noder via InfiniBand 56G-grensesnittet, helt gjennomsiktig for programvaren som kjører på toppen av lagringssystemet. Som et resultat er bruk av lagringsvirtualiserere, programvareagenter osv. ikke nødvendig.

Fysisk kan to-node-løsningen fra AccelStor implementeres i to modeller:

  • H510 — basert på tvillingservere i et 2U-hus, hvis moderat ytelse og kapasitet på opptil 22 TB kreves;
  • H710 — basert på individuelle 2U-servere, hvis høy ytelse og stor kapasitet (opptil 57 TB) kreves.

Reduser risikoen for nedetid med Shared Nothing-arkitekturen

Modell H510 basert på tvillingserver

Reduser risikoen for nedetid med Shared Nothing-arkitekturen

Modell H710 basert på individuelle servere

Bruken av ulike formfaktorer skyldes behovet for ulike antall SSD-er for å oppnå et gitt volum og ytelse. Pluss, Twin-plattformen er billigere og lar deg tilby rimeligere løsninger, om enn med noen betinget "ulempe" i form av et enkelt bakplan. Alt annet, inkludert driftsprinsippene, er helt identisk for begge modellene.

Datasettet for hver node har to grupper FlexiRemap, pluss 2 varme reservedeler. Hver gruppe er i stand til å motstå feil på én SSD. Alle innkommende forespørsler om å ta opp en node iht ideologi FlexiRemap bygger om 4KB blokker til sekvensielle kjeder, som deretter skrives til SSD-en i den mest komfortable modusen for dem (sekvensielt opptak). Dessuten mottar verten en opptaksbekreftelse først etter at dataene er fysisk plassert på SSD-en, dvs. uten caching i RAM. Resultatet er svært imponerende ytelse på opptil 600K IOPS-skriving og 1M+ IOPS-lesing (modell H710).

Som nevnt tidligere synkroniseres datasett i sanntid via InfiniBand 56G-grensesnittet, som har høy gjennomstrømning og lav ventetid. For å utnytte kommunikasjonskanalen mest mulig effektivt ved overføring av små pakker. Fordi Det er bare én kommunikasjonskanal; en dedikert 1GbE-kobling brukes for ytterligere hjertefrekvenskontroll. Bare hjerteslag overføres gjennom den, så det er ingen krav til hastighetsegenskaper.

Ved økende systemkapasitet (opptil 400+TB) pga utvidelseshyller de er også koblet sammen i par for å opprettholde konseptet "no single point of failure".

For ytterligere databeskyttelse (i tillegg til at AccelStor allerede har to kopier), brukes en spesiell atferdsalgoritme i tilfelle feil på en SSD. Hvis SSD-en svikter, vil noden begynne å gjenoppbygge data til en av de varme reservediskene. FlexiRemap-gruppen, som er i degradert tilstand, vil bytte til skrivebeskyttet modus. Dette gjøres for å eliminere interferens mellom skrive- og gjenoppbyggingsoperasjoner på backup-disken, noe som til slutt fremskynder gjenopprettingsprosessen og reduserer tiden når systemet er potensielt sårbart. Når gjenoppbyggingen er fullført, går noden tilbake til normal lese-skrivemodus.

Reduser risikoen for nedetid med Shared Nothing-arkitekturen

Selvfølgelig, som andre systemer, reduseres den generelle ytelsen under gjenoppbyggingen (tross alt fungerer ikke en av FlexiRemap-gruppene for opptak). Men selve gjenopprettingsprosessen skjer så raskt som mulig, noe som skiller AccelStor-systemer fra løsninger fra andre leverandører.

En annen nyttig egenskap ved Nothing Shared-arkitekturteknologien er driften av noder i den såkalte sanne aktiv-aktive modusen. I motsetning til den "klassiske" arkitekturen, hvor kun én kontroller eier et spesifikt volum/pool, og den andre bare utfører I/O-operasjoner, i systemer AccelStor hver node jobber med sitt eget sett med data og sender ikke forespørsler til sin "nabo". Som et resultat er den generelle systemytelsen forbedret på grunn av parallell behandling av I/O-forespørsler fra noder og tilgang til stasjoner. Det er heller nesten ikke noe som heter failover, siden det rett og slett ikke er behov for å overføre kontroll over volumer til en annen node i tilfelle feil.

Hvis vi sammenligner Nothing Shared-arkitekturteknologien med fullverdig duplisering av lagringssystem, vil den ved første øyekast være litt dårligere enn full implementering av katastrofegjenoppretting i fleksibilitet. Dette gjelder spesielt for organisering av en kommunikasjonslinje mellom lagringssystemer. Dermed er det i H710-modellen mulig å spre noder over en avstand på opptil 100m ved bruk av ikke veldig billige InfiniBand aktive optiske kabler. Men selv om man sammenligner med den vanlige implementeringen av synkron replikering fra andre leverandører gjennom en tilgjengelig FibreChannel, selv over lengre avstander, vil løsningen fra AccelStor være billigere og enklere å installere/drifte, fordi det er ikke nødvendig å installere lagringsvirtualiserere og/eller integrere med programvare (noe som ikke alltid er mulig i prinsippet). I tillegg, ikke glem at AccelStor-løsninger er All Flash-arrayer med høyere ytelse enn "klassiske" lagringssystemer med kun SSD.

Reduser risikoen for nedetid med Shared Nothing-arkitekturen

Når du bruker AccelStors Nothing Shared-arkitektur, er det mulig å oppnå 99.9999 % lagringssystemtilgjengelighet til en svært rimelig pris. Sammen med den høye påliteligheten til løsningen, inkludert gjennom bruk av to kopier av data, og imponerende ytelse takket være proprietære algoritmer FlexiRemap, løsninger fra AccelStor er utmerkede kandidater til nøkkelposisjoner når du skal bygge et moderne datasenter.

Kilde: www.habr.com

Legg til en kommentar