பிஸியான திட்டங்களில் Ceph உடன் பணிபுரிவதற்கான உதவிக்குறிப்புகள் & தந்திரங்கள்

பிஸியான திட்டங்களில் Ceph உடன் பணிபுரிவதற்கான உதவிக்குறிப்புகள் & தந்திரங்கள்

வெவ்வேறு சுமைகளைக் கொண்ட திட்டங்களில் Ceph ஐ பிணைய சேமிப்பகமாகப் பயன்படுத்துவதால், முதல் பார்வையில் எளிமையான அல்லது அற்பமானதாகத் தோன்றாத பல்வேறு பணிகளை நாம் சந்திக்க நேரிடலாம். உதாரணத்திற்கு:

  • புதிய கிளஸ்டரில் முந்தைய சேவையகங்களை ஓரளவு பயன்படுத்துவதன் மூலம் பழைய Ceph இலிருந்து புதியதாக தரவை நகர்த்துதல்;
  • Ceph இல் வட்டு இட ஒதுக்கீட்டின் சிக்கலுக்கு தீர்வு.

இத்தகைய சிக்கல்களைக் கையாள்வதில், தரவை இழக்காமல் OSD ஐ சரியாக அகற்ற வேண்டிய அவசியத்தை நாங்கள் எதிர்கொள்கிறோம், இது பெரிய அளவிலான தரவைக் கையாளும் போது மிகவும் முக்கியமானது. இது கட்டுரையில் விவாதிக்கப்படும்.

கீழே விவரிக்கப்பட்டுள்ள முறைகள் Ceph இன் எந்தப் பதிப்பிற்கும் பொருத்தமானவை. கூடுதலாக, Ceph அதிக அளவிலான தரவைச் சேமிக்க முடியும் என்பது கணக்கில் எடுத்துக்கொள்ளப்படும்: தரவு இழப்பு மற்றும் பிற சிக்கல்களைத் தடுக்க, சில செயல்கள் பலவற்றில் "பிரிக்கப்படும்".

OSD பற்றிய முன்னுரை

விவாதிக்கப்பட்ட மூன்று சமையல் குறிப்புகளில் இரண்டு OSD க்கு அர்ப்பணிக்கப்பட்டவை (பொருள் சேமிப்பு டீமான்), நடைமுறைப் பகுதிக்குள் நுழைவதற்கு முன் - அது Ceph இல் என்ன இருக்கிறது மற்றும் அது ஏன் மிகவும் முக்கியமானது என்பதைப் பற்றி சுருக்கமாக.

முதலில், முழு Ceph கிளஸ்டரும் பல OSD களைக் கொண்டுள்ளது என்று சொல்ல வேண்டும். அதிக எண்ணிக்கையில், Ceph இல் இலவச தரவு அளவு அதிகமாகும். இங்கிருந்து புரிந்துகொள்வது எளிது முக்கிய OSD செயல்பாடு: இது அனைத்து கிளஸ்டர் முனைகளின் கோப்பு முறைமைகளில் Ceph ஆப்ஜெக்ட் தரவைச் சேமித்து, பிணைய அணுகலை வழங்குகிறது (படிக்க, எழுதுதல் மற்றும் பிற கோரிக்கைகளுக்கு).

அதே மட்டத்தில், வெவ்வேறு OSDகளுக்கு இடையில் பொருட்களை நகலெடுப்பதன் மூலம் பிரதி அளவுருக்கள் அமைக்கப்படுகின்றன. இங்கே நீங்கள் பல்வேறு சிக்கல்களை சந்திக்கலாம், அதற்கான தீர்வுகள் கீழே விவாதிக்கப்படும்.

வழக்கு எண் 1. டேட்டாவை இழக்காமல் Ceph கிளஸ்டரிலிருந்து OSD ஐ பாதுகாப்பாக அகற்றவும்

கிளஸ்டரிலிருந்து சேவையகத்தை அகற்றுவதன் மூலம் OSD ஐ அகற்ற வேண்டிய அவசியம் ஏற்படலாம் - எடுத்துக்காட்டாக, அதை மற்றொரு சேவையகத்துடன் மாற்றுவது - இதுதான் எங்களுக்கு நடந்தது, இது இந்த கட்டுரையை எழுதுவதற்கு வழிவகுத்தது. இவ்வாறு, கையாளுதலின் இறுதி இலக்கு, கொடுக்கப்பட்ட சர்வரில் உள்ள அனைத்து OSDகள் மற்றும் மான்களையும் பிரித்தெடுப்பதாகும், இதனால் அதை நிறுத்த முடியும்.

வசதிக்காகவும், கட்டளைகளை இயக்கும் போது, ​​தேவையான OSD ஐக் குறிப்பிடுவதில் தவறு ஏற்படும் சூழ்நிலையைத் தவிர்க்கவும், ஒரு தனி மாறியை அமைப்போம், அதன் மதிப்பு நீக்கப்பட வேண்டிய OSD இன் எண்ணாக இருக்கும். அவளை அழைப்போம் ${ID} — இங்கே மற்றும் கீழே, அத்தகைய மாறி நாம் வேலை செய்யும் OSD எண்ணை மாற்றுகிறது.

வேலையைத் தொடங்குவதற்கு முன் நிலைமையைப் பார்ப்போம்:

root@hv-1 ~ # ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.46857 root default
-3       0.15619      host hv-1
-5       0.15619      host hv-2
 1   ssd 0.15619      osd.1     up     1.00000  1.00000
-7       0.15619      host hv-3
 2   ssd 0.15619      osd.2     up     1.00000  1.00000

OSD அகற்றுதலைத் தொடங்க, நீங்கள் சீராகச் செயல்பட வேண்டும் reweight அதன் மீது பூஜ்ஜியம். இந்த வழியில், மற்ற OSDகளுடன் சமநிலைப்படுத்துவதன் மூலம் OSD இல் உள்ள தரவின் அளவைக் குறைக்கிறோம். இதைச் செய்ய, பின்வரும் கட்டளைகளை இயக்கவும்:

ceph osd reweight osd.${ID} 0.98
ceph osd reweight osd.${ID} 0.88
ceph osd reweight osd.${ID} 0.78

... மற்றும் பூஜ்யம் வரை.

மென்மையான சமநிலை தேவைஅதனால் தரவு இழக்க கூடாது. OSD அதிக அளவு தரவுகளைக் கொண்டிருந்தால் இது குறிப்பாக உண்மை. கட்டளைகளை இயக்கிய பின் என்பதை உறுதி செய்ய reweight எல்லாம் நன்றாக நடந்தது, நீங்கள் அதை முடிக்க முடியும் ceph -s அல்லது ஒரு தனி முனைய சாளரத்தில் இயக்கவும் ceph -w உண்மையான நேரத்தில் ஏற்படும் மாற்றங்களைக் கவனிப்பதற்காக.

OSD "காலியாக" இருக்கும் போது, ​​அதை அகற்ற நிலையான செயல்பாட்டை நீங்கள் தொடரலாம். இதைச் செய்ய, விரும்பிய OSD ஐ மாநிலத்திற்கு மாற்றவும் down:

ceph osd down osd.${ID}

கிளஸ்டரிலிருந்து OSD ஐ "இழுக்க" செய்யலாம்:

ceph osd out osd.${ID}

OSD சேவையை நிறுத்திவிட்டு, FS இல் அதன் பகிர்வை அவிழ்ப்போம்:

systemctl stop ceph-osd@${ID}
umount /var/lib/ceph/osd/ceph-${ID}

இதிலிருந்து OSD ஐ அகற்று க்ரஷ் வரைபடம்:

ceph osd crush remove osd.${ID}

OSD பயனரை நீக்குவோம்:

ceph auth del osd.${ID}

இறுதியாக, OSD ஐ அகற்றுவோம்:

ceph osd rm osd.${ID}

கருத்து: நீங்கள் Ceph Luminous பதிப்பு அல்லது அதற்கு மேற்பட்ட பதிப்பைப் பயன்படுத்தினால், மேலே உள்ள OSD அகற்றும் படிகளை இரண்டு கட்டளைகளாகக் குறைக்கலாம்:

ceph osd out osd.${ID}
ceph osd purge osd.${ID}

மேலே விவரிக்கப்பட்ட படிகளை முடித்த பிறகு, நீங்கள் கட்டளையை இயக்கினால் ceph osd tree, வேலை செய்யப்பட்ட சேவையகத்தில் மேலே உள்ள செயல்பாடுகள் செய்யப்பட்ட OSD கள் இனி இல்லை என்பது தெளிவாக இருக்க வேண்டும்:

root@hv-1 ~ # ceph osd tree
ID CLASS WEIGHT  TYPE NAME     STATUS REWEIGHT PRI-AFF
-1       0.46857      root default
-3       0.15619      host hv-1
-5       0.15619      host hv-2
-7       0.15619      host hv-3
 2   ssd 0.15619      osd.2    up     1.00000  1.00000

வழியில், Ceph கிளஸ்டரின் நிலை செல்லும் என்பதை நினைவில் கொள்க HEALTH_WARN, மற்றும் OSDகளின் எண்ணிக்கை மற்றும் கிடைக்கக்கூடிய வட்டு இடத்தின் அளவு குறைவதையும் காண்போம்.

நீங்கள் சேவையகத்தை முற்றிலுமாக நிறுத்த விரும்பினால், அதன் படி, Ceph இலிருந்து அதை அகற்ற விரும்பினால், பின்வரும் படிகள் தேவைப்படும். இந்த விஷயத்தில், அதை நினைவில் கொள்வது அவசியம் சேவையகத்தை மூடுவதற்கு முன், நீங்கள் அனைத்து OSDகளையும் அகற்ற வேண்டும் இந்த சர்வரில்.

இந்த சர்வரில் ஓஎஸ்டிகள் எதுவும் இல்லை என்றால், அவற்றை அகற்றிய பிறகு, ஓஎஸ்டி வரைபடத்தில் இருந்து சேவையகத்தை விலக்க வேண்டும். hv-2பின்வரும் கட்டளையை இயக்குவதன் மூலம்:

ceph osd crush rm hv-2

அழி mon சர்வரில் இருந்து hv-2கீழே உள்ள கட்டளையை மற்றொரு சேவையகத்தில் இயக்குவதன் மூலம் (அதாவது இந்த விஷயத்தில், ஆன் hv-1):

ceph-deploy mon destroy hv-2

இதற்குப் பிறகு, நீங்கள் சேவையகத்தை நிறுத்தி, அடுத்தடுத்த செயல்களைத் தொடங்கலாம் (அதை மீண்டும் வரிசைப்படுத்துதல் போன்றவை).

வழக்கு எண். 2. ஏற்கனவே உருவாக்கப்பட்ட Ceph கிளஸ்டரில் வட்டு இடத்தை விநியோகித்தல்

பிஜி பற்றிய முன்னுரையுடன் இரண்டாவது கதையைத் தொடங்குகிறேன் (வேலை வாய்ப்பு குழுக்கள்) Ceph இல் PG இன் முக்கிய பங்கு முதன்மையாக Ceph பொருட்களை ஒருங்கிணைத்து அவற்றை மேலும் OSD இல் பிரதியெடுப்பதாகும். PG இன் தேவையான அளவை நீங்கள் கணக்கிடக்கூடிய சூத்திரம் உள்ளது தொடர்புடைய பிரிவு Cef ஆவணங்கள். குறிப்பிட்ட எடுத்துக்காட்டுகளுடன் இந்த பிரச்சினையும் அங்கு விவாதிக்கப்படுகிறது.

எனவே: Ceph ஐப் பயன்படுத்தும் போது ஏற்படும் பொதுவான பிரச்சனைகளில் ஒன்று Ceph இல் உள்ள குளங்களுக்கு இடையில் OSD மற்றும் PG இன் சமநிலையற்ற எண்ணிக்கையாகும்.

முதலாவதாக, இதன் காரணமாக, ஒரு சிறிய குளத்தில் அதிகமான பிஜிக்கள் குறிப்பிடப்படும்போது ஒரு சூழ்நிலை ஏற்படலாம், இது அடிப்படையில் கிளஸ்டரில் உள்ள வட்டு இடத்தை பகுத்தறிவற்ற பயன்பாடாகும். இரண்டாவதாக, நடைமுறையில் மிகவும் கடுமையான சிக்கல் உள்ளது: OSD களில் ஒன்றில் தரவு வழிதல். இது கொத்து முதல் மாநிலத்திற்கு மாறுகிறது HEALTH_WARN, பின்னர் HEALTH_ERR. இதற்குக் காரணம், Ceph, கிடைக்கக்கூடிய தரவைக் கணக்கிடும்போது (நீங்கள் அதைக் கண்டுபிடிக்கலாம் MAX AVAIL கட்டளை வெளியீட்டில் ceph df ஒவ்வொரு பூலுக்கும் தனித்தனியாக) OSD இல் கிடைக்கும் தரவின் அளவை அடிப்படையாகக் கொண்டது. குறைந்தபட்சம் ஒரு OSD இல் போதுமான இடம் இல்லை என்றால், அனைத்து OSD களிலும் தரவு சரியாக விநியோகிக்கப்படும் வரை எந்த தரவையும் எழுத முடியாது.

இந்த சிக்கல்களை தெளிவுபடுத்துவது மதிப்பு பெரும்பாலும் Ceph கிளஸ்டர் உள்ளமைவு கட்டத்தில் தீர்மானிக்கப்படுகிறது. நீங்கள் பயன்படுத்தக்கூடிய கருவிகளில் ஒன்று Ceph PGCalc. அதன் உதவியுடன், PG இன் தேவையான அளவு தெளிவாக கணக்கிடப்படுகிறது. இருப்பினும், செஃப் கிளஸ்டர் இருக்கும் சூழ்நிலையிலும் நீங்கள் அதை நாடலாம் ஏற்கனவே தவறாக உள்ளமைக்கப்பட்டது. பிழைத்திருத்தப் பணியின் ஒரு பகுதியாக நீங்கள் பெரும்பாலும் பிஜிகளின் எண்ணிக்கையைக் குறைக்க வேண்டியிருக்கும் என்பதை இங்கே தெளிவுபடுத்துவது மதிப்பு, மேலும் இந்த அம்சம் Ceph இன் பழைய பதிப்புகளில் இல்லை (இது பதிப்பில் மட்டுமே தோன்றியது. நாடுலஸை).

எனவே, பின்வரும் படத்தை கற்பனை செய்வோம்: கிளஸ்டருக்கு ஒரு நிலை உள்ளது HEALTH_WARN OSD ஒன்றில் இடம் இல்லாமல் போனதால். இது ஒரு பிழை மூலம் குறிக்கப்படும் HEALTH_WARN: 1 near full osd. இந்த சூழ்நிலையிலிருந்து வெளியேறுவதற்கான ஒரு வழிமுறை கீழே உள்ளது.

முதலில், மீதமுள்ள OSD களுக்கு இடையில் கிடைக்கக்கூடிய தரவை நீங்கள் விநியோகிக்க வேண்டும். முதல் வழக்கில் இதேபோன்ற செயல்பாட்டை நாங்கள் ஏற்கனவே செய்தோம், நாங்கள் முனையை "வடிகால்" செய்தபோது - ஒரே வித்தியாசத்துடன் இப்போது நாம் சற்று குறைக்க வேண்டும் reweight. எடுத்துக்காட்டாக, 0.95 வரை:

ceph osd reweight osd.${ID} 0.95

இது OSD இல் வட்டு இடத்தை விடுவிக்கிறது மற்றும் ceph ஆரோக்கியத்தில் உள்ள பிழையை சரிசெய்கிறது. இருப்பினும், ஏற்கனவே குறிப்பிட்டுள்ளபடி, ஆரம்ப கட்டங்களில் Ceph இன் தவறான உள்ளமைவு காரணமாக இந்த சிக்கல் முக்கியமாக நிகழ்கிறது: எதிர்காலத்தில் அது தோன்றாமல் இருக்க மறுகட்டமைப்பை உருவாக்குவது மிகவும் முக்கியம்.

எங்கள் குறிப்பிட்ட விஷயத்தில், இது அனைத்தும் கீழே வந்தது:

  • மதிப்பு மிக அதிகம் replication_count குளம் ஒன்றில்,
  • ஒரு குளத்தில் அதிகமான பிஜி மற்றும் மற்றொரு குளத்தில் மிகக் குறைவு.

ஏற்கனவே குறிப்பிட்டுள்ள கால்குலேட்டரைப் பயன்படுத்துவோம். உள்ளிட வேண்டியதை இது தெளிவாகக் காட்டுகிறது, கொள்கையளவில், சிக்கலான எதுவும் இல்லை. தேவையான அளவுருக்களை அமைத்த பிறகு, பின்வரும் பரிந்துரைகளைப் பெறுகிறோம்:

கருத்து: நீங்கள் புதிதாக ஒரு Ceph கிளஸ்டரை அமைக்கிறீர்கள் என்றால், கால்குலேட்டரின் மற்றொரு பயனுள்ள செயல்பாடு, அட்டவணையில் குறிப்பிடப்பட்டுள்ள அளவுருக்கள் மூலம் புதிதாக பூல்களை உருவாக்கும் கட்டளைகளின் தலைமுறையாகும்.

கடைசி நெடுவரிசை உங்களுக்கு வழிசெலுத்த உதவுகிறது - பரிந்துரைக்கப்பட்ட PG எண்ணிக்கை. எங்கள் விஷயத்தில், இரண்டாவதாகவும் பயனுள்ளதாக இருக்கும், அங்கு பிரதி அளவுரு குறிக்கப்படுகிறது, ஏனெனில் நாங்கள் பிரதி பெருக்கியை மாற்ற முடிவு செய்தோம்.

எனவே, முதலில் நீங்கள் பிரதி அளவுருக்களை மாற்ற வேண்டும் - இது முதலில் செய்வது மதிப்பு, ஏனெனில் பெருக்கியைக் குறைப்பதன் மூலம், நாங்கள் வட்டு இடத்தை விடுவிப்போம். கட்டளையை இயக்கும்போது, ​​​​கிடைக்கும் வட்டு இடம் அதிகரிக்கும் என்பதை நீங்கள் கவனிப்பீர்கள்:

ceph osd pool $pool_name set $replication_size

அது முடிந்ததும், அளவுரு மதிப்புகளை மாற்றுகிறோம் pg_num и pgp_num பின்வருமாறு:

ceph osd pool set $pool_name pg_num $pg_number
ceph osd pool set $pool_name pgp_num $pg_number

முக்கியமான: ஒவ்வொரு குளத்திலும் உள்ள PGகளின் எண்ணிக்கையை நாம் தொடர்ச்சியாக மாற்ற வேண்டும் மற்றும் எச்சரிக்கைகள் மறையும் வரை மற்ற குளங்களில் உள்ள மதிப்புகளை மாற்றக்கூடாது "தரவு பணிநீக்கம்" и "பிஜிக்களின் எண்ணிக்கை குறைக்கப்பட்டது".

கட்டளை வெளியீடுகளைப் பயன்படுத்தி எல்லாம் சரியாக நடந்ததா என்பதையும் நீங்கள் சரிபார்க்கலாம் ceph health detail и ceph -s.

வழக்கு எண் 3. ஒரு மெய்நிகர் இயந்திரத்தை LVM இலிருந்து Ceph RBD க்கு மாற்றுகிறது

ஒரு திட்டம் வாடகைக்கு எடுக்கப்பட்ட வெற்று-உலோக சேவையகங்களில் நிறுவப்பட்ட மெய்நிகர் இயந்திரங்களைப் பயன்படுத்தும் சூழ்நிலையில், தவறு-சகிப்புச் சேமிப்பகத்தின் சிக்கல் அடிக்கடி எழுகிறது. இந்த சேமிப்பகத்தில் போதுமான இடம் இருப்பதும் மிகவும் விரும்பத்தக்கது ... மற்றொரு பொதுவான சூழ்நிலை: சேவையகத்தில் உள்ளூர் சேமிப்பகத்துடன் ஒரு மெய்நிகர் இயந்திரம் உள்ளது மற்றும் நீங்கள் வட்டை விரிவாக்க வேண்டும், ஆனால் எங்கும் செல்ல முடியாது, ஏனெனில் இல்லை சர்வரில் இலவச வட்டு இடம் உள்ளது.

சிக்கலை வெவ்வேறு வழிகளில் தீர்க்க முடியும் - எடுத்துக்காட்டாக, மற்றொரு சேவையகத்திற்கு நகர்த்துவதன் மூலம் (ஒன்று இருந்தால்) அல்லது சேவையகத்தில் புதிய வட்டுகளைச் சேர்ப்பதன் மூலம். ஆனால் இதைச் செய்வது எப்போதும் சாத்தியமில்லை, எனவே LVM இலிருந்து Ceph க்கு இடம்பெயர்வது இந்த சிக்கலுக்கு ஒரு சிறந்த தீர்வாக இருக்கும். இந்த விருப்பத்தைத் தேர்ந்தெடுப்பதன் மூலம், சேவையகங்களுக்கிடையே இடம்பெயர்வு செயல்முறையை எளிதாக்குகிறோம், ஏனெனில் உள்ளூர் சேமிப்பகத்தை ஒரு ஹைப்பர்வைசரிலிருந்து மற்றொன்றுக்கு நகர்த்த வேண்டிய அவசியமில்லை. ஒரே பிடிப்பு என்னவென்றால், வேலை நடைபெறும் போது நீங்கள் VM ஐ நிறுத்த வேண்டும்.

பின்வரும் செய்முறையிலிருந்து எடுக்கப்பட்டது இந்த வலைப்பதிவில் இருந்து கட்டுரை, அதன் வழிமுறைகள் செயலில் சோதிக்கப்பட்டன. மூலம், தொந்தரவு இல்லாத இடம்பெயர்வு முறையும் அங்கு விவரிக்கப்பட்டுள்ளதுஇருப்பினும், எங்கள் விஷயத்தில் இது வெறுமனே தேவையில்லை, எனவே நாங்கள் அதைச் சரிபார்க்கவில்லை. இது உங்கள் திட்டத்திற்கு முக்கியமானதாக இருந்தால், கருத்துகளில் முடிவுகளைப் பற்றி அறிந்துகொள்வதில் நாங்கள் மகிழ்ச்சியடைவோம்.

நடைமுறை பகுதிக்கு செல்லலாம். எடுத்துக்காட்டில் நாம் virsh மற்றும் அதன்படி, libvirt ஐப் பயன்படுத்துகிறோம். முதலில், தரவு நகர்த்தப்படும் Ceph பூல் libvirt உடன் இணைக்கப்பட்டுள்ளதா என்பதை உறுதிப்படுத்தவும்:

virsh pool-dumpxml $ceph_pool

பூல் விளக்கத்தில் அங்கீகாரத் தரவுடன் Ceph உடனான இணைப்புத் தரவு இருக்க வேண்டும்.

அடுத்த படி LVM படம் Ceph RBD ஆக மாற்றப்படுகிறது. இயக்க நேரம் முதன்மையாக படத்தின் அளவைப் பொறுத்தது:

qemu-img convert -p -O rbd /dev/main/$vm_image_name rbd:$ceph_pool/$vm_image_name

மாற்றத்திற்குப் பிறகு, ஒரு LVM படம் இருக்கும், VM ஐ RBD க்கு நகர்த்துவது தோல்வியுற்றால், நீங்கள் மாற்றங்களைத் திரும்பப் பெற வேண்டும் என்றால் இது பயனுள்ளதாக இருக்கும். மேலும், மாற்றங்களை விரைவாகத் திரும்பப் பெற, மெய்நிகர் இயந்திர உள்ளமைவு கோப்பின் காப்புப்பிரதியை உருவாக்குவோம்:

virsh dumpxml $vm_name > $vm_name.xml
cp $vm_name.xml $vm_name_backup.xml

... மற்றும் அசல் திருத்தவும் (vm_name.xml) வட்டின் விளக்கத்துடன் ஒரு தொகுதியைக் கண்டுபிடிப்போம் (வரியுடன் தொடங்குகிறது <disk type='file' device='disk'> மற்றும் முடிவடைகிறது </disk>) மற்றும் அதை பின்வரும் படிவத்திற்கு குறைக்கவும்:

<disk type='network' device='disk'>
<driver name='qemu'/>
<auth username='libvirt'>
  <secret type='ceph' uuid='sec-ret-uu-id'/>
 </auth>
<source protocol='rbd' name='$ceph_pool/$vm_image_name>
  <host name='10.0.0.1' port='6789'/>
  <host name='10.0.0.2' port='6789'/>
</source>
<target dev='vda' bus='virtio'/> 
<alias name='virtio-disk0'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
</disk>

சில விவரங்களைப் பார்ப்போம்:

  1. நெறிமுறைக்கு source Ceph RBD இல் சேமிப்பகத்திற்கான முகவரி குறிப்பிடப்பட்டுள்ளது (இது Ceph குளத்தின் பெயரையும் RBD படத்தையும் குறிக்கும் முகவரி, இது முதல் கட்டத்தில் தீர்மானிக்கப்பட்டது).
  2. தொகுதியில் secret வகை குறிக்கப்படுகிறது ceph, அத்துடன் UUID ரகசியம் அதனுடன் இணைக்கப்பட வேண்டும். அதன் uuid கட்டளையைப் பயன்படுத்தி காணலாம் virsh secret-list.
  3. தொகுதியில் host Ceph மானிட்டர்களுக்கான முகவரிகள் குறிப்பிடப்பட்டுள்ளன.

உள்ளமைவு கோப்பைத் திருத்தி, எல்விஎம்-லிருந்து ஆர்பிடி மாற்றத்தை முடித்த பிறகு, மாற்றியமைக்கப்பட்ட உள்ளமைவுக் கோப்பைப் பயன்படுத்தி மெய்நிகர் இயந்திரத்தைத் தொடங்கலாம்:

virsh define $vm_name.xml
virsh start $vm_name

மெய்நிகர் இயந்திரம் சரியாகத் தொடங்கப்பட்டுள்ளதா என்பதைச் சரிபார்க்க வேண்டிய நேரம் இது: எடுத்துக்காட்டாக, SSH வழியாக அல்லது வழியாக இணைப்பதன் மூலம் நீங்கள் கண்டுபிடிக்கலாம். virsh.

மெய்நிகர் இயந்திரம் சரியாக வேலை செய்து, வேறு எந்த பிரச்சனையும் இல்லை எனில், இனி பயன்படுத்தப்படாத LVM படத்தை நீக்கலாம்:

lvremove main/$vm_image_name

முடிவுக்கு

நடைமுறையில் விவரிக்கப்பட்ட அனைத்து நிகழ்வுகளையும் நாங்கள் சந்தித்தோம் - பிற நிர்வாகிகள் இதே போன்ற சிக்கல்களைத் தீர்க்க அறிவுறுத்தல்கள் உதவும் என்று நம்புகிறோம். Ceph ஐப் பயன்படுத்தி உங்கள் அனுபவத்திலிருந்து கருத்துகள் அல்லது பிற ஒத்த கதைகள் இருந்தால், கருத்துகளில் அவற்றைப் பார்ப்பதில் நாங்கள் மகிழ்ச்சியடைவோம்!

சோசலிஸ்ட் கட்சி

எங்கள் வலைப்பதிவிலும் படிக்கவும்:

ஆதாரம்: www.habr.com

கருத்தைச் சேர்