ProHoster > Блог > administratio > Aedificationem culpae solutionis patientis secundum Oracle RAC et AccelStor Shared-Nihil architecturae
Aedificationem culpae solutionis patientis secundum Oracle RAC et AccelStor Shared-Nihil architecturae
Complures inceptae applicationes et systemata virtualizationis proprias machinas habent ad solutiones culpa-tolerantes aedificandas. Speciatim, Oraculum RAC (Oraculum reale applicationis Cluster) est botrus duorum vel plurium oracula datorum servientibus simul cooperantibus ad onus staterae et culpae tolerantiam in gradu servientis/applicationis praebent. Ad hoc modo operandum, communi repositione opus est, quod fere ratio reposita est.
Sicut iam dictum est in uno nostro vasa, ratio ipsa repono, quamvis praesentia duplicata (inclusa moderatoris), puncta tamen defectus habet - praesertim in specie unius copiae notitiarum. Ideo ad solutionem Oraculi aedificandam auctis firmitate requisitis, ratio "N ministrantium - unum systema reponendi" necessarium esse perplexum est.
Primum quidem decernere debemus quae pericula praecavendam contra conamur. In hoc articulo, defensionem contra minas non habebimus sicut "meteorites advenit." Itaque solutionem recuperationis calamitatis geographicam dispersam aedificando remanebit thema unius e sequentibus articulis. Hic videbimus solutionem calamitatis recuperationis sic dictae Cross-Rack, cum tutela aedificatur in ambitu scrinii servientis. Ipsae cellae collocari possunt in eodem cubiculo vel in diversis, sed plerumque in eodem aedificio.
Haec armaria totam necessariam apparatum ac programmatum continere debet qui operationem datorum Oraculi sinet respectu status "proximi". Aliis verbis, solutionem recuperationis calamitatis Crucis-Rack adhibens, pericula deficiendi eliminamus;
Oraculum Application Servers
systems repono
Systemata Switching
Integram defectum omnium armorum in scrinio;
potestas negatio
Defectum systema refrigerationem
Res externae (humanae, naturae, etc.) ;
Duplicatio servientium Oraculi ipsum principium operativum Oraculi RAC implicat et per applicationem impletur. Duplicatio facilitatum mutandi etiam non obstat. Sed cum duplicatione systematis repono, omnia non tam simplicia sunt.
Optio simplicissima est replicatio data ab principali systemate ad tergum unum. Synchrona vel asynchrona, secundum facultates systematis repono. Asynchrono replicatione, quaestio statim oritur ut notitiae constantiae in relatione ad Oraculum. Sed etiamsi integratio programmatis sit cum applicatione, utique in casu defectus in repositione principali, interventus manualis ab administratoribus requiretur ut botrum ad tergum repono.
Optio multiplicior est software et/or hardware repositionis "virtualium" quae constantiam problematum et interventus manuales eliminabunt. Intricata autem instituti et administrationis subsequens, necnon sumptus turpissimus talium solutionum, multos terret.
AccelStor NeoSapphire ™ Omnes Flash ordinata solutio perfecta est ad missiones ut Cross-Rack clade recuperatio H710 usus Shared-Nihil architectura. Hoc exemplar est ratio repositionis nodi duo quae technologiae proprietatis FlexiRemap® utitur ad operandum cum mico agitet. Gratias FlexiRemap® NeoSapphire™ H710 praestare potest ad 600K IOPS@4K perferendis temere scribere et temere legere 1M+ IOPS@4K, quod fieri non potest cum systemata classica RAID-substructio reposita.
Praecipuum autem notae NeoSapphireae H710 est exsecutio duorum nodi in casuum separatorum, quorum uterque suum exemplar notitiae habet. Synchronisatio nodium exercetur per interfacem externam InfiniBand. Propter hanc architecturam nodi in diversis locis distans usque ad 100m distribuere potest, inde solutionem recuperationis cladis Cross-Rack praebens. Ambo nodi omnino synchrone agunt. Ex parte exercitus, H710 spectat ut systema tabularium ordinarium duplicatum moderatoris. Nihil ergo opus est ut programmata quaedam adiuncta vel ferramenta optiones vel singula loca complexa exsequantur.
Si omnes solutiones crucis-Rack cladis receptae supra descriptas comparemus, optio ab AccelStor eminet notabiliter e reliquis:
AccelStor NeoSapphire™ Shared Nihil Architecture
Software vel hardware "virtualizer" repono systema
Replicatio secundum solutionem
disponibilitate
Servo defectum Non Downtime Non Downtime Non Downtime
Defectum switch Non Downtime Non Downtime Non Downtime
Repono ratio deficiendi Non Downtime Non Downtime downtime
Tota scrinium deficiendi Non Downtime Non Downtime downtime
Pretium et complexionem
Solutio pretium
Minimum*
Высокая
Высокая
Instruere complexionem
humilis
Высокая
Высокая
*AccelStor NeoSapphire™ omnia Flash instructa adhuc est, quae per definitionem "3 kopecks" non constat, praesertim cum duplicem habeat facultatem reservandi. Attamen, cum solutionis finalis sumptus comparet innititur cum similibus aliis venditoribus, sumptus humilis considerari potest.
Acta topologia pro servientibus applicationis connectendi et omnes nodi nodi ordinati hoc spectant:
Cum topologiam disponit, etiam valde commendatur duplicare virgas et ministris connectere.
Hic et ulterius de connectendis per Fibre Channel loquemur. Si iSCSI uteris, omnia eadem erunt, virgarum generibus aptata et uncinis nonnihil diversa dispositis.
Opus praeparatorium in acie
Apparatu ac software usus est
Servo et SWITCH PB
components
Description
Oraculum Database 11g servers
duo
Servo operating ratio
Oracle Linux
Oraculum database version
11g (RAC)
Processores per servo
Duo 16 coros Intel® Xeon® CPU E5-2667 v2 @ 3.30GHz
Corporalis memoria per servo
128GB
FC network
16Gb/s FC cum multipathing
FC HBA
Emulex Lpe-16002B
Publicae 1GbE portus botri procuratio dedicata
Intel adaptor aethereus RJ45
16Gb/s FC switch
Brocade 6505
Dedicata synchonization privata 10GbE portus notitia
Intel X520
AccelStor NeoSapphire™ All Flash Forum Specification
components
Description
ratio repono
NeoSapphire ™ excelsum promptitudinis exemplar: H710
Imago version
4.0.1
Totalis numerus foras
48
Coegi magnitudine
1.92TB
genus coegi
SSD
scopum FC portuum
16x 16Gb portus (8 per node)
Procuratio portus
Funis eternet 1GbE cum exercitibus per aëremi transitum connectens
Cordis portum
Funis ethernet 1GbE connectens inter duos nodos repono
Data synchronisation portum
56Gb/s InfiniBand cable
Ante aciem uti potes, oportet eam initialize. Default, utriusque nodi inscriptio eadem est (192.168.1.1). Opus est illis singillatim coniungere ac novas (iam varias) inscriptiones administratione ponere ac tempus synchronisationi constituere, post quod procuratio portus uni retis coniungi potest. Postea nodi coniunguntur in HA binas ponendo subnets pro nexus Interlink.
Post initialization completum est, ordinatam ab aliquo nodo administrare potes.
Deinceps volumina necessaria creamus et ea ad applicationes ministrantes edimus.
Magnopere commendatur multiplex volumina creare pro Oraculo ASM sicut hic numerus scutorum pro ministris augebit, qui tandem altiore observantia meliore (magis in queues in alio articulus).
Configuratione test
Repono Volume Nomen
Location volumine
data01
200GB
data02
200GB
data03
200GB
data04
200GB
data05
200GB
data06
200GB
data07
200GB
data08
200GB
data09
200GB
data10
200GB
Grid01
1GB
Grid02
1GB
Grid03
1GB
Grid04
1GB
Grid05
1GB
Grid06
1GB
Redo01
100GB
Redo02
100GB
Redo03
100GB
Redo04
100GB
Redo05
100GB
Redo06
100GB
Redo07
100GB
Redo08
100GB
Redo09
100GB
Redo10
100GB
Explicationes quaedam de modos operativos ordinatae et de processibus occurrentibus in condicionibus subitis
Data cuiusque nodi copia "numerum versionis" parametrum habet. Post initializationem initialem idem est ac aequale 1. Si ob aliquam causam versio numerus diversus est, notitia semper ex antiquiori versione ad minorem, post quam numerus minoris versionis varius est, i.e. hoc modo codices idem sunt. Causae cur versiones diversae sint;
Scheduled reboot unius e nodis
Accidens in una e nodis subito shutdown (potestas copia, overheating, etc.).
Lost InfiniBand nexum non posse synchronize
Fragor in una nodis ob corruptionem data. Hic opus novum HA coetus creare et integram synchronizationem notitiarum statutorum complere debebis.
Utcumque, nodi qui online remanet, numerum suum versionis auget, ut notitias suas componat post nexum cum par restituto.
Si nexus cum ligamine Ethernet amittitur, pulsatio ad tempus permutat ad InfiniBand et rursus intra 10 seconds cum restituitur redit.
Exercituum eriges
Ut culpa tolerantiae et melioris observantiae curet, debes MPIO sup- plicare pro ordinata. Ad hoc faciendum, lineas ad fasciculum /etc/multipath.conf addere debes, et postea servitium multipathi sileo.
Occultatum illudcogitationes {
device {
venditor "AStor"
path_grouping_policy "group_by_prio"
path_selector "queue-longitudo 0"
path_checker "tur"
features "0"
hardware_handler "0"
prio "const"
failback statim
fast_io_fail_tmo 5
dev_loss_tmo 60
user_friendly_names sic
detect_prio sic
rr_min_io_rq 1
no_path_retry 0
}
}
Deinde, ut cum MPIO per ASMLib laborare ASM, debes fasciculi /etc/sysconfig/oracleasmi mutare et deinde /etc/init.d/oracleasmum scandiscos mutare.
Occultatum illud
# ORACLEASM_SCANORDER: Matching exemplaria ordinem orbis intuens
ORACLEASM_SCANORDER="dm"
# ORACLEASM_SCANEXCLUDE: Compositus exemplaria orbis a scan excludere
ORACLEASM_SCANEXCLUDE="sd"
illud
Si ASMLib uti non vis, regulas UDEV uti potes, quae fundamentum sunt ASMLib.
Incipiens cum versione 12.1.0.2 Oraculi Database, optio praesto est ad institutionem sicut pars programmatis ASMFD.
Disci ad Oraculum ASM creatum est curare ut cum obstructionum magnitudine perpendantur quae ordinata physice operetur cum (4K). Alias faciendi difficultates evenire possunt. Ideo necesse est libros parametros congruos creare;
# vi /etc/sysctl.conf
fs.aio-max-nr = 1048576
fs.file-max = 6815744
kernel.shmmax 103079215104
kernel.shmall 31457280
kernel.shmmn 4096
kernel.sem = 250 32000 100 128
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default = 262144
net.core.rmem_max = 4194304
net.core.wmem_default = 262144
net.core.wmem_max = 1048586
vm.swappiness=10
✓ vm.min_free_kbytes=524288 # hoc non pone si Linux x86 uteris.
vm.vfs_cache_pressure=200
vm.nr_hugepages = 57000
# vi /etc/security/limits.conf
eget mollis nproc 2047
eget difficile nproc 16384
eget mollis nofile 1024
malesuada euismod durum nofile 65536
eget mollis acervus 10240
eget acervus ferreus 32768
✓ Oraculum molle nproc 2047
Oraculum durum nproc 16384
✓ Oraculum molle nofile 1024
Oraculum durum nofile 65536
Oraculum mollis acervus 10240
Oraculum durum acervus 32768
mollis memlock 120795954
dura memlock 120795954
sqlplus "/as sysdba"
alter system set processs=2000 scope=spfile;
alter system set open_cursors=2000 scope=spfile;
alter system set session_cached_cursors=300 scope=spfile;
alter system set db_files=8192 scope=spfile;
Defectum test
Ad demonstrationem proposita, HammerDB onus OLTP aemulabatur. Configuratio HammerDB;
Number of Warhouses
256
Summa transactions per User
1000000000000
Rectum Users
256
Effectus erat 2.1M TPM, quae procul a limitibus agendis ordinata est H710sed "laquearium" est de configuratione ferramentorum currentium ministrantium (praesertim ex processoribus) et eorum numero. Propositum huius probationis adhuc demonstrare culpam solutionis in toto tolerantia, et non consequi maximum effectum. Ergo in hac figura simpliciter aedificabimus.
Test defectum unius e nodis
Exercitus partem viarum ad repositiones amiserunt, per reliquas nodi secundo laborando continuando. Euismod omissa brevi tempore ob semitas reaedificatas, ac deinde ad normalem rediit. Nulla in servitio intermissio fuit.
Scrinium defectum test omni apparatu
In hoc casu, effectus quoque aliquot secundis omissis ob semitarum restaurationem, ac deinde ad dimidium valorem pristinum rediit. Effectus est dimidiatum ab initiali propter exclusionem unius servientis ab operatione. Nulla etiam militia intermissio fuit.
Si opus est ad effectum deducendi Crucem-Rack calamitatis recuperationis solutionem pro Oraculo rationabili sumptu et cum labore administrationis, tum Oraculum RAC et architectura cooperantur AccelStor Shared-Nihil unus erit optimus optiones. Loco Oraculi RAC, alia programmata esse potest quae pampineas easdem DBMS vel systema virtualizationis praebet, exempli gratia. Principium solutionis construendae idem manebit. Atque ima linea nulla est pro RTO et RPO.