ప్రోహోస్టర్ > బ్లాగ్ > పరిపాలన > కుబెర్నెటెస్: సిస్టమ్ రిసోర్స్ మేనేజ్మెంట్ను సెటప్ చేయడం ఎందుకు చాలా ముఖ్యం?
కుబెర్నెటెస్: సిస్టమ్ రిసోర్స్ మేనేజ్మెంట్ను సెటప్ చేయడం ఎందుకు చాలా ముఖ్యం?
నియమం ప్రకారం, దాని సరైన మరియు స్థిరమైన ఆపరేషన్ కోసం అనువర్తనానికి అంకితమైన వనరులను అందించడం ఎల్లప్పుడూ అవసరం. అయితే అనేక అప్లికేషన్లు ఒకే శక్తితో రన్ అవుతున్నట్లయితే? వాటిలో ప్రతి ఒక్కరికి అవసరమైన కనీస వనరులను ఎలా అందించాలి? మీరు వనరుల వినియోగాన్ని ఎలా పరిమితం చేయవచ్చు? నోడ్ల మధ్య లోడ్ను సరిగ్గా ఎలా పంపిణీ చేయాలి? అప్లికేషన్ లోడ్ పెరిగితే క్షితిజ సమాంతర స్కేలింగ్ మెకానిజం పని చేస్తుందని ఎలా నిర్ధారించాలి?
సిస్టమ్లో ఏ ప్రధాన రకాల వనరులు ఉన్నాయో మీరు ప్రారంభించాలి - ఇది ప్రాసెసర్ సమయం మరియు RAM. k8s మానిఫెస్ట్లలో ఈ వనరుల రకాలు క్రింది యూనిట్లలో కొలుస్తారు:
CPU - కోర్లలో
RAM - బైట్లలో
అంతేకాకుండా, ప్రతి వనరు కోసం రెండు రకాల అవసరాలను సెట్ చేయడం సాధ్యపడుతుంది - అభ్యర్థనలు и పరిమితులు. అభ్యర్థనలు - కంటైనర్ను (మరియు మొత్తం పాడ్) అమలు చేయడానికి నోడ్ యొక్క ఉచిత వనరుల కోసం కనీస అవసరాలను వివరిస్తుంది, అయితే పరిమితులు కంటైనర్కు అందుబాటులో ఉన్న వనరులపై కఠినమైన పరిమితిని సెట్ చేస్తాయి.
మానిఫెస్ట్ రెండు రకాలను స్పష్టంగా నిర్వచించనవసరం లేదని అర్థం చేసుకోవడం ముఖ్యం, కానీ ప్రవర్తన క్రింది విధంగా ఉంటుంది:
వనరు యొక్క పరిమితులు మాత్రమే స్పష్టంగా పేర్కొనబడినట్లయితే, ఈ వనరు కోసం అభ్యర్థనలు స్వయంచాలకంగా పరిమితులకు సమానమైన విలువను తీసుకుంటాయి (మీరు దీన్ని వివరించే ఎంటిటీలకు కాల్ చేయడం ద్వారా ధృవీకరించవచ్చు). ఆ. వాస్తవానికి, కంటైనర్ అమలు చేయడానికి అవసరమైన అదే మొత్తంలో వనరులకు పరిమితం చేయబడుతుంది.
రిసోర్స్ కోసం అభ్యర్థనలు మాత్రమే స్పష్టంగా పేర్కొనబడితే, ఈ వనరుపై ఎటువంటి ఎగువ పరిమితులు సెట్ చేయబడవు - అనగా. కంటైనర్ నోడ్ యొక్క వనరుల ద్వారా మాత్రమే పరిమితం చేయబడింది.
వనరుల నిర్వహణను నిర్దిష్ట కంటైనర్ స్థాయిలో మాత్రమే కాకుండా, కింది ఎంటిటీలను ఉపయోగించి నేమ్స్పేస్ స్థాయిలో కూడా కాన్ఫిగర్ చేయడం సాధ్యపడుతుంది:
లిమిట్ రేంజ్ — nsలో కంటైనర్/పాడ్ స్థాయిలో పరిమితి విధానాన్ని వివరిస్తుంది మరియు కంటైనర్/పాడ్పై డిఫాల్ట్ పరిమితులను వివరించడానికి, అలాగే స్పష్టంగా కొవ్వు కంటైనర్లు/పాడ్ల (లేదా వైస్ వెర్సా) సృష్టిని నిరోధించడానికి, వాటి సంఖ్యను పరిమితం చేయడానికి ఇది అవసరం. మరియు పరిమితులు మరియు అభ్యర్థనలలో విలువలలో సాధ్యమయ్యే వ్యత్యాసాన్ని నిర్ణయించండి
వనరుల కోటాలు — nsలోని అన్ని కంటైనర్ల కోసం సాధారణంగా పరిమితి విధానాన్ని వివరించండి మరియు పర్యావరణాల మధ్య వనరులను డీలిమిట్ చేయడానికి నియమం వలె ఉపయోగించబడుతుంది (నోడ్ స్థాయిలో పర్యావరణాలు ఖచ్చితంగా గుర్తించబడనప్పుడు ఉపయోగపడుతుంది)
వనరుల పరిమితులను సెట్ చేసే మానిఫెస్ట్ల ఉదాహరణలు క్రిందివి:
ఆ. ఈ సందర్భంలో, nginxతో కంటైనర్ను అమలు చేయడానికి, మీకు నోడ్పై కనీసం 1G ఉచిత RAM మరియు 0.2 CPU అవసరం, అయితే గరిష్టంగా కంటైనర్ 0.2 CPU మరియు నోడ్లో అందుబాటులో ఉన్న మొత్తం RAMని వినియోగించగలదు.
ఆ. అన్ని కంటైనర్ల కోసం డిఫాల్ట్ నేమ్స్పేస్లో, అభ్యర్థన CPU కోసం 100m మరియు OP కోసం 1Gకి సెట్ చేయబడుతుంది, పరిమితి - 1 CPU మరియు 2G. అదే సమయంలో, CPU (50m <x <2) మరియు RAM (500M <x <4G) కోసం అభ్యర్థన/పరిమితిలో సాధ్యమయ్యే విలువలపై కూడా పరిమితి సెట్ చేయబడింది.
ఆ. డిఫాల్ట్ nsలోని ప్రతి పాడ్కు 4 vCPU మరియు 1G పరిమితి ఉంటుంది.
ఈ పరిమితులను సెట్ చేయడం వల్ల మనకు ఎలాంటి ప్రయోజనాలు లభిస్తాయో ఇప్పుడు నేను మీకు చెప్పాలనుకుంటున్నాను.
నోడ్స్ మధ్య లోడ్ బ్యాలెన్సింగ్ మెకానిజం
మీకు తెలిసినట్లుగా, నోడ్ల మధ్య పాడ్ల పంపిణీకి k8s భాగం బాధ్యత వహిస్తుంది షెడ్యూలర్, ఇది నిర్దిష్ట అల్గోరిథం ప్రకారం పనిచేస్తుంది. లాంచ్ చేయడానికి సరైన నోడ్ను ఎంచుకున్నప్పుడు ఈ అల్గోరిథం రెండు దశల ద్వారా వెళుతుంది:
వడపోత
రేంజింగ్
ఆ. వివరించిన విధానం ప్రకారం, ఒక సెట్ ఆధారంగా పాడ్ను ప్రారంభించడం సాధ్యమయ్యే నోడ్లు మొదట ఎంపిక చేయబడతాయి ఊహిస్తుంది (పాడ్ - PodFitsResourcesను అమలు చేయడానికి నోడ్లో తగినంత వనరులు ఉన్నాయో లేదో తనిఖీ చేయడంతో సహా), ఆపై ఈ నోడ్లలో ప్రతి దాని ప్రకారం ప్రాధాన్యతలను పాయింట్లు అందజేయబడతాయి (నోడ్కి ఎక్కువ ఉచిత వనరులు ఉంటే, దానికి ఎక్కువ పాయింట్లు కేటాయించబడతాయి - LeastResourceAllocation/LeastRequestedPriority/BalancedResourceAllocation) మరియు పాడ్ నోడ్లో అత్యధిక పాయింట్లతో ప్రారంభించబడుతుంది (అనేక నోడ్లు ఈ పరిస్థితిని ఒకేసారి సంతృప్తిపరిచినట్లయితే, అప్పుడు యాదృచ్ఛికంగా ఒకటి ఎంపిక చేయబడింది) .
అదే సమయంలో, షెడ్యూలర్, నోడ్ యొక్క అందుబాటులో ఉన్న వనరులను అంచనా వేసేటప్పుడు, etcdలో నిల్వ చేయబడిన డేటా ద్వారా మార్గనిర్దేశం చేయబడుతుందని మీరు అర్థం చేసుకోవాలి - అనగా. ఈ నోడ్లో నడుస్తున్న ప్రతి పాడ్ యొక్క అభ్యర్థించిన/పరిమితి వనరు మొత్తానికి, కానీ వాస్తవ వనరుల వినియోగం కోసం కాదు. ఈ సమాచారాన్ని కమాండ్ అవుట్పుట్ నుండి పొందవచ్చు kubectl describe node $NODEఉదాహరణకు:
ఇక్కడ మేము నిర్దిష్ట నోడ్లో నడుస్తున్న అన్ని పాడ్లను అలాగే ప్రతి పాడ్ అభ్యర్థించే వనరులను చూస్తాము. cronjob-cron-events-1573793820-xt6q9 పాడ్ ప్రారంభించబడినప్పుడు షెడ్యూలర్ లాగ్లు ఎలా ఉంటాయో ఇక్కడ ఉంది (మీరు స్టార్టప్ కమాండ్ ఆర్గ్యుమెంట్లలో 10వ లాగింగ్ స్థాయిని సెట్ చేసినప్పుడు షెడ్యూలర్ లాగ్లో ఈ సమాచారం కనిపిస్తుంది -v=10):
లాగ్
I1115 07:57:21.637791 1 scheduling_queue.go:908] About to try and schedule pod nxs-stage/cronjob-cron-events-1573793820-xt6q9
I1115 07:57:21.637804 1 scheduler.go:453] Attempting to schedule pod: nxs-stage/cronjob-cron-events-1573793820-xt6q9
I1115 07:57:21.638285 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s5 is allowed, Node is running only 16 out of 110 Pods.
I1115 07:57:21.638300 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s6 is allowed, Node is running only 20 out of 110 Pods.
I1115 07:57:21.638322 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s3 is allowed, Node is running only 20 out of 110 Pods.
I1115 07:57:21.638322 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s4 is allowed, Node is running only 17 out of 110 Pods.
I1115 07:57:21.638334 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s10 is allowed, Node is running only 16 out of 110 Pods.
I1115 07:57:21.638365 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s12 is allowed, Node is running only 9 out of 110 Pods.
I1115 07:57:21.638334 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s11 is allowed, Node is running only 11 out of 110 Pods.
I1115 07:57:21.638385 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s1 is allowed, Node is running only 19 out of 110 Pods.
I1115 07:57:21.638402 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s2 is allowed, Node is running only 21 out of 110 Pods.
I1115 07:57:21.638383 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s9 is allowed, Node is running only 16 out of 110 Pods.
I1115 07:57:21.638335 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s8 is allowed, Node is running only 18 out of 110 Pods.
I1115 07:57:21.638408 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s13 is allowed, Node is running only 8 out of 110 Pods.
I1115 07:57:21.638478 1 predicates.go:1369] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s10 is allowed, existing pods anti-affinity terms satisfied.
I1115 07:57:21.638505 1 predicates.go:1369] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s8 is allowed, existing pods anti-affinity terms satisfied.
I1115 07:57:21.638577 1 predicates.go:1369] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s9 is allowed, existing pods anti-affinity terms satisfied.
I1115 07:57:21.638583 1 predicates.go:829] Schedule Pod nxs-stage/cronjob-cron-events-1573793820-xt6q9 on Node nxs-k8s-s7 is allowed, Node is running only 25 out of 110 Pods.
I1115 07:57:21.638932 1 resource_allocation.go:78] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s10: BalancedResourceAllocation, capacity 39900 millicores 66620178432 memory bytes, total request 2343 millicores 9640186880 memory bytes, score 9
I1115 07:57:21.638946 1 resource_allocation.go:78] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s10: LeastResourceAllocation, capacity 39900 millicores 66620178432 memory bytes, total request 2343 millicores 9640186880 memory bytes, score 8
I1115 07:57:21.638961 1 resource_allocation.go:78] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s9: BalancedResourceAllocation, capacity 39900 millicores 66620170240 memory bytes, total request 4107 millicores 11307422720 memory bytes, score 9
I1115 07:57:21.638971 1 resource_allocation.go:78] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s8: BalancedResourceAllocation, capacity 39900 millicores 66620178432 memory bytes, total request 5847 millicores 24333637120 memory bytes, score 7
I1115 07:57:21.638975 1 resource_allocation.go:78] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s9: LeastResourceAllocation, capacity 39900 millicores 66620170240 memory bytes, total request 4107 millicores 11307422720 memory bytes, score 8
I1115 07:57:21.638990 1 resource_allocation.go:78] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s8: LeastResourceAllocation, capacity 39900 millicores 66620178432 memory bytes, total request 5847 millicores 24333637120 memory bytes, score 7
I1115 07:57:21.639022 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s10: TaintTolerationPriority, Score: (10)
I1115 07:57:21.639030 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s8: TaintTolerationPriority, Score: (10)
I1115 07:57:21.639034 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s9: TaintTolerationPriority, Score: (10)
I1115 07:57:21.639041 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s10: NodeAffinityPriority, Score: (0)
I1115 07:57:21.639053 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s8: NodeAffinityPriority, Score: (0)
I1115 07:57:21.639059 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s9: NodeAffinityPriority, Score: (0)
I1115 07:57:21.639061 1 interpod_affinity.go:237] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s10: InterPodAffinityPriority, Score: (0)
I1115 07:57:21.639063 1 selector_spreading.go:146] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s10: SelectorSpreadPriority, Score: (10)
I1115 07:57:21.639073 1 interpod_affinity.go:237] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s8: InterPodAffinityPriority, Score: (0)
I1115 07:57:21.639077 1 selector_spreading.go:146] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s8: SelectorSpreadPriority, Score: (10)
I1115 07:57:21.639085 1 interpod_affinity.go:237] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s9: InterPodAffinityPriority, Score: (0)
I1115 07:57:21.639088 1 selector_spreading.go:146] cronjob-cron-events-1573793820-xt6q9 -> nxs-k8s-s9: SelectorSpreadPriority, Score: (10)
I1115 07:57:21.639103 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s10: SelectorSpreadPriority, Score: (10)
I1115 07:57:21.639109 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s8: SelectorSpreadPriority, Score: (10)
I1115 07:57:21.639114 1 generic_scheduler.go:726] cronjob-cron-events-1573793820-xt6q9_nxs-stage -> nxs-k8s-s9: SelectorSpreadPriority, Score: (10)
I1115 07:57:21.639127 1 generic_scheduler.go:781] Host nxs-k8s-s10 => Score 100037
I1115 07:57:21.639150 1 generic_scheduler.go:781] Host nxs-k8s-s8 => Score 100034
I1115 07:57:21.639154 1 generic_scheduler.go:781] Host nxs-k8s-s9 => Score 100037
I1115 07:57:21.639267 1 scheduler_binder.go:269] AssumePodVolumes for pod "nxs-stage/cronjob-cron-events-1573793820-xt6q9", node "nxs-k8s-s10"
I1115 07:57:21.639286 1 scheduler_binder.go:279] AssumePodVolumes for pod "nxs-stage/cronjob-cron-events-1573793820-xt6q9", node "nxs-k8s-s10": all PVCs bound and nothing to do
I1115 07:57:21.639333 1 factory.go:733] Attempting to bind cronjob-cron-events-1573793820-xt6q9 to nxs-k8s-s10
ఇక్కడ మనం మొదట షెడ్యూలర్ ఫిల్టర్ చేసి, దానిని ప్రారంభించగల 3 నోడ్ల జాబితాను రూపొందించడాన్ని చూస్తాము (nxs-k8s-s8, nxs-k8s-s9, nxs-k8s-s10). తర్వాత ఇది చాలా సరిఅయిన నోడ్ని నిర్ణయించడానికి ఈ నోడ్లలో ప్రతి దాని కోసం అనేక పారామీటర్ల ఆధారంగా (బ్యాలెన్స్డ్ రిసోర్స్అలొకేషన్, లీస్ట్రిసోర్స్అలొకేషన్తో సహా) స్కోర్లను గణిస్తుంది. అంతిమంగా, పాడ్ అత్యధిక పాయింట్లతో నోడ్పై షెడ్యూల్ చేయబడింది (ఇక్కడ రెండు నోడ్లు ఒకేసారి 100037 పాయింట్లను కలిగి ఉంటాయి, కాబట్టి యాదృచ్ఛికంగా ఒకటి ఎంచుకోబడుతుంది - nxs-k8s-s10).
తీర్మానం: ఒక నోడ్ ఎటువంటి పరిమితులు సెట్ చేయని పాడ్లను నడుపుతుంటే, k8s కోసం (వనరుల వినియోగం యొక్క కోణం నుండి) ఇది ఈ నోడ్లో అటువంటి పాడ్లు లేనట్లుగా సమానంగా ఉంటుంది. అందువల్ల, మీరు షరతులతో, తిండిపోతు ప్రక్రియతో పాడ్ను కలిగి ఉంటే (ఉదాహరణకు, వావ్జా) మరియు దానికి ఎటువంటి పరిమితులు విధించబడకపోతే, ఈ పాడ్ వాస్తవానికి నోడ్ యొక్క అన్ని వనరులను తిన్నప్పుడు పరిస్థితి తలెత్తవచ్చు, కానీ k8s కోసం ఈ నోడ్ అన్లోడ్ చేయబడినదిగా పరిగణించబడుతుంది మరియు వర్కింగ్ పాడ్లను కలిగి లేని నోడ్గా ర్యాంక్ చేసినప్పుడు (ఖచ్చితంగా అందుబాటులో ఉన్న వనరులను అంచనా వేసే పాయింట్లలో) అదే పాయింట్లు ఇవ్వబడతాయి, ఇది చివరికి నోడ్ల మధ్య లోడ్ యొక్క అసమాన పంపిణీకి దారి తీస్తుంది.
పాడ్ యొక్క తొలగింపు
మీకు తెలిసినట్లుగా, ప్రతి పాడ్కు 3 QoS తరగతుల్లో ఒకటి కేటాయించబడుతుంది:
హామీ ఇచ్చారు - పాడ్లోని ప్రతి కంటైనర్కు మెమరీ మరియు cpu కోసం అభ్యర్థన మరియు పరిమితి పేర్కొనబడినప్పుడు కేటాయించబడుతుంది మరియు ఈ విలువలు తప్పనిసరిగా సరిపోలాలి
పగిలిపోయే - పాడ్లోని కనీసం ఒక కంటైనర్లో అభ్యర్థన మరియు పరిమితి, అభ్యర్థన < పరిమితి ఉంటుంది
ఉత్తమ ప్రయత్నం - పాడ్లో ఒక్క కంటైనర్ కూడా వనరు పరిమితం కానప్పుడు
అదే సమయంలో, ఒక నోడ్ వనరుల కొరతను (డిస్క్, మెమరీ) ఎదుర్కొన్నప్పుడు, పాడ్ మరియు దాని QoS తరగతి యొక్క ప్రాధాన్యతను పరిగణనలోకి తీసుకునే నిర్దిష్ట అల్గారిథమ్ ప్రకారం kubelet పాడ్లను ర్యాంక్ చేయడం మరియు తొలగించడం ప్రారంభిస్తుంది. ఉదాహరణకు, మేము RAM గురించి మాట్లాడుతున్నట్లయితే, QoS తరగతి ఆధారంగా, క్రింది సూత్రం ప్రకారం పాయింట్లు ఇవ్వబడతాయి:
ఆ. అదే ప్రాధాన్యతతో, kubelet నోడ్ నుండి ఉత్తమ ప్రయత్నం QoS క్లాస్తో మొదట పాడ్లను తొలగిస్తుంది.
తీర్మానం: మీరు కోరుకున్న పాడ్పై వనరులు లేని సందర్భంలో నోడ్ నుండి తొలగించబడే సంభావ్యతను తగ్గించాలనుకుంటే, ప్రాధాన్యతతో పాటు, మీరు దాని అభ్యర్థన/పరిమితిని సెట్ చేయడంలో కూడా శ్రద్ధ వహించాలి.
అప్లికేషన్ పాడ్స్ (HPA) యొక్క క్షితిజ సమాంతర ఆటోస్కేలింగ్ కోసం మెకానిజం
వనరుల వినియోగాన్ని (సిస్టమ్ - CPU/RAM లేదా యూజర్ - rps) బట్టి పాడ్ల సంఖ్యను స్వయంచాలకంగా పెంచడం మరియు తగ్గించడం పని అయినప్పుడు, అటువంటి k8s ఎంటిటీ తక్కువ hPa (క్షితిజసమాంతర పాడ్ ఆటోస్కేలర్). దీని అల్గోరిథం క్రింది విధంగా ఉంది:
గమనించిన వనరు యొక్క ప్రస్తుత రీడింగులు నిర్ణయించబడతాయి (ప్రస్తుతమెట్రిక్ విలువ)
రిసోర్స్ కోసం కావలసిన విలువలు నిర్ణయించబడతాయి (డిజైర్డ్ మెట్రిక్ వాల్యూ), ఇది సిస్టమ్ వనరుల కోసం అభ్యర్థనను ఉపయోగించి సెట్ చేయబడుతుంది
ప్రస్తుత ప్రతిరూపాల సంఖ్య నిర్ణయించబడింది (ప్రస్తుత ప్రతిరూపాలు)
కింది ఫార్ములా కావలసిన ప్రతిరూపాల సంఖ్యను గణిస్తుంది (కావాల్సిన ప్రతిరూపాలు)
కోరుకున్న ప్రతిరూపాలు = [ప్రస్తుత ప్రతిరూపాలు * (ప్రస్తుతమెట్రిక్ విలువ / కావలసినమెట్రిక్ విలువ)]
ఈ సందర్భంలో, గుణకం (ప్రస్తుతమెట్రిక్ విలువ / కావలసినమెట్రిక్ విలువ) 1కి దగ్గరగా ఉన్నప్పుడు స్కేలింగ్ జరగదు (ఈ సందర్భంలో, అనుమతించదగిన లోపాన్ని మనమే సెట్ చేసుకోవచ్చు; డిఫాల్ట్గా ఇది 0.1).
యాప్-టెస్ట్ అప్లికేషన్ (డిప్లాయ్మెంట్గా వర్ణించబడింది) ఉదాహరణను ఉపయోగించి hpa ఎలా పని చేస్తుందో చూద్దాం, ఇక్కడ CPU వినియోగంపై ఆధారపడి ప్రతిరూపాల సంఖ్యను మార్చడం అవసరం:
ఆ. అప్లికేషన్ పాడ్ ప్రారంభంలో రెండు సందర్భాలలో ప్రారంభించబడిందని మేము చూస్తాము, వీటిలో ప్రతి ఒక్కటి రెండు nginx మరియు nginx-ఎగుమతిదారు కంటైనర్లను కలిగి ఉంటుంది, వీటిలో ప్రతి ఒక్కటి పేర్కొన్నది అభ్యర్థనలు CPU కోసం.
ఆ. మేము డిప్లాయ్మెంట్ యాప్-పరీక్షను పర్యవేక్షించే hpaని సృష్టించాము మరియు cpu సూచిక ఆధారంగా అప్లికేషన్తో పాడ్ల సంఖ్యను సర్దుబాటు చేస్తుంది (పాడ్ అభ్యర్థించే CPUలో 30% వినియోగిస్తుందని మేము భావిస్తున్నాము), ప్రతిరూపాల సంఖ్యతో 2-10 పరిధి.
ఇప్పుడు, మేము పొయ్యిలలో ఒకదానికి లోడ్ని వర్తింపజేస్తే hpa ఆపరేషన్ యొక్క మెకానిజం చూద్దాం:
# kubectl top pod
NAME CPU(cores) MEMORY(bytes)
app-test-78559f8f44-pgs58 101m 243Mi
app-test-78559f8f44-cj4jz 4m 240Mi
మొత్తంగా మనకు ఈ క్రిందివి ఉన్నాయి:
కావలసిన విలువ (desiredMetricValue) - hpa సెట్టింగ్ల ప్రకారం, మనకు 30% ఉంది
ప్రస్తుత విలువ (currentMetricValue) - గణన కోసం, కంట్రోలర్-మేనేజర్ వనరుల వినియోగం యొక్క సగటు విలువను %లో గణిస్తుంది, అనగా. షరతులతో కింది వాటిని చేస్తుంది:
మెట్రిక్ సర్వర్ నుండి పాడ్ మెట్రిక్స్ యొక్క సంపూర్ణ విలువలను అందుకుంటుంది, అనగా. 101 మీ మరియు 4 మీ
సగటు సంపూర్ణ విలువను గణిస్తుంది, అనగా. (101మీ + 4మీ) / 2 = 53మీ
కావలసిన వనరుల వినియోగం కోసం సంపూర్ణ విలువను పొందుతుంది (దీని కోసం, అన్ని కంటైనర్ల అభ్యర్థనలు సంగ్రహించబడ్డాయి) 60m + 30m = 90m
అభ్యర్థన పాడ్కు సంబంధించి CPU వినియోగం యొక్క సగటు శాతాన్ని గణిస్తుంది, అనగా. 53మీ / 90మీ * 100% = 59%
ఇప్పుడు మనం ప్రతిరూపాల సంఖ్యను మార్చాలా వద్దా అని నిర్ణయించాల్సిన ప్రతిదీ ఉంది; దీన్ని చేయడానికి, మేము గుణకాన్ని లెక్కిస్తాము:
ratio = 59% / 30% = 1.96
ఆ. ప్రతిరూపాల సంఖ్యను ~2 రెట్లు పెంచాలి మరియు మొత్తం [2 * 1.96] = 4.
తీర్మానం: మీరు చూడగలిగినట్లుగా, ఈ మెకానిజం పని చేయడానికి, గమనించిన పాడ్లోని అన్ని కంటైనర్ల కోసం అభ్యర్థనలు ఉండటం అవసరమైన పరిస్థితి.
నోడ్స్ యొక్క క్షితిజ సమాంతర ఆటోస్కేలింగ్ కోసం మెకానిజం (క్లస్టర్ ఆటోస్కేలర్)
లోడ్ సర్జ్ల సమయంలో సిస్టమ్పై ప్రతికూల ప్రభావాన్ని తటస్థీకరించడానికి, కాన్ఫిగర్ చేయబడిన hpaని కలిగి ఉండటం సరిపోదు. ఉదాహరణకు, hpa కంట్రోలర్ మేనేజర్లోని సెట్టింగ్ల ప్రకారం, ప్రతిరూపాల సంఖ్యను 2 రెట్లు పెంచాలని ఇది నిర్ణయిస్తుంది, అయితే నోడ్లకు అటువంటి అనేక పాడ్లను అమలు చేయడానికి ఉచిత వనరులు లేవు (అనగా నోడ్ అందించదు అభ్యర్థనల పాడ్కు వనరులను అభ్యర్థించారు) మరియు ఈ పాడ్లు పెండింగ్ స్థితికి మారతాయి.
ఈ సందర్భంలో, ప్రొవైడర్కు సంబంధిత IaaS/PaaS ఉంటే (ఉదాహరణకు, GKE/GCE, AKS, EKS, మొదలైనవి), వంటి సాధనం నోడ్ ఆటోస్కేలర్. క్లస్టర్ మరియు పాడ్లలో వనరుల కొరత ఉన్నప్పుడు క్లస్టర్లో గరిష్ట మరియు కనిష్ట నోడ్ల సంఖ్యను సెట్ చేయడానికి మరియు ప్రస్తుత నోడ్ల సంఖ్యను స్వయంచాలకంగా సర్దుబాటు చేయడానికి ఇది మిమ్మల్ని అనుమతిస్తుంది (క్లౌడ్ ప్రొవైడర్ APIని ఆర్డర్ చేయడానికి/ఒక నోడ్ని తీసివేయడానికి కాల్ చేయడం ద్వారా) షెడ్యూల్ చేయడం సాధ్యం కాదు (పెండింగ్లో ఉన్నాయి).
తీర్మానం: నోడ్లను ఆటోస్కేల్ చేయడానికి, పాడ్ కంటైనర్లలో అభ్యర్థనలను సెట్ చేయడం అవసరం, తద్వారా k8లు నోడ్లపై లోడ్ను సరిగ్గా అంచనా వేయగలవు మరియు తదనుగుణంగా తదుపరి పాడ్ను ప్రారంభించేందుకు క్లస్టర్లో వనరులు లేవని నివేదించవచ్చు.
తీర్మానం
అప్లికేషన్ విజయవంతంగా అమలు కావడానికి కంటైనర్ వనరుల పరిమితులను సెట్ చేయడం అవసరం కాదని గమనించాలి, అయితే ఈ క్రింది కారణాల వల్ల అలా చేయడం ఉత్తమం:
k8s నోడ్ల మధ్య లోడ్ బ్యాలెన్సింగ్ పరంగా షెడ్యూలర్ యొక్క మరింత ఖచ్చితమైన ఆపరేషన్ కోసం
"పాడ్ ఎవిక్షన్" ఈవెంట్ సంభవించే సంభావ్యతను తగ్గించడానికి
అప్లికేషన్ పాడ్ల (HPA) క్షితిజసమాంతర ఆటోస్కేలింగ్ పని చేయడానికి
క్లౌడ్ ప్రొవైడర్ల కోసం నోడ్ల (క్లస్టర్ ఆటోస్కేలింగ్) క్షితిజ సమాంతర ఆటోస్కేలింగ్ కోసం