කාර්යබහුල ව්‍යාපෘති වලදී Ceph සමඟ වැඩ කිරීම සඳහා ඉඟි සහ උපක්‍රම

කාර්යබහුල ව්‍යාපෘති වලදී Ceph සමඟ වැඩ කිරීම සඳහා ඉඟි සහ උපක්‍රම

විවිධ බර සහිත ව්‍යාපෘතිවල ජාල ආචයනය ලෙස Ceph භාවිතා කිරීම, බැලූ බැල්මට සරල හෝ සුළු දෙයක් ලෙස නොපෙනෙන විවිධ කාර්යයන් අපට හමුවිය හැකිය. උදාහරණ වශයෙන්:

  • නව පොකුරේ පෙර සේවාදායකයන් අර්ධ වශයෙන් භාවිතයෙන් පැරණි Ceph සිට අලුත් එකට දත්ත සංක්‍රමණය කිරීම;
  • Ceph හි තැටි ඉඩ වෙන් කිරීමේ ගැටලුවට විසඳුම.

එවැනි ගැටළු සමඟ කටයුතු කිරීමේදී, දත්ත අහිමි නොවී OSD නිවැරදිව ඉවත් කිරීමේ අවශ්යතාව සමඟ අප මුහුණ දී සිටින අතර, විශාල දත්ත ප්රමාණයක් සමඟ කටයුතු කිරීමේදී විශේෂයෙන් වැදගත් වේ. මෙය ලිපියේ සාකච්ඡා කරනු ඇත.

පහත විස්තර කර ඇති ක්‍රම Ceph හි ඕනෑම අනුවාදයක් සඳහා අදාළ වේ. මීට අමතරව, Ceph දත්ත විශාල ප්රමාණයක් ගබඩා කළ හැකි බව සැලකිල්ලට ගනු ඇත: දත්ත අහිමි වීම සහ අනෙකුත් ගැටළු වළක්වා ගැනීම සඳහා, සමහර ක්රියාවන් තවත් කීපයකට "බෙදී" ඇත.

OSD ගැන පෙරවදන

සාකච්ඡා කරන ලද වට්ටෝරු තුනෙන් දෙකක් OSD සඳහා කැප කර ඇති බැවින් (Object Storage Daemon), ප්‍රායෝගික කොටසට කිමිදීමට පෙර - එය Ceph හි ඇති දේ සහ එය එතරම් වැදගත් වන්නේ මන්දැයි කෙටියෙන්.

මුලින්ම කියන්න ඕන මුළු Ceph cluster එක OSD වලින් සමන්විතයි. ඒවා වැඩි වන තරමට Ceph හි නිදහස් දත්ත පරිමාව වැඩි වේ. මෙතනින් තේරුම් ගන්න ලේසියි ප්රධාන OSD කාර්යය: එය සියලුම පොකුරු නෝඩ් වල ගොනු පද්ධති මත Ceph වස්තු දත්ත ගබඩා කරන අතර එයට ජාල ප්‍රවේශය සපයයි (කියවීම, ලිවීම සහ වෙනත් ඉල්ලීම් සඳහා).

එකම මට්ටමින්, විවිධ OSD අතර වස්තු පිටපත් කිරීම මගින් අනුරූකරණ පරාමිතීන් සකසා ඇත. මෙහිදී ඔබට විවිධ ගැටළු වලට මුහුණ දිය හැකිය, ඒවාට විසඳුම් පහත සාකච්ඡා කරනු ඇත.

නඩු අංක 1. දත්ත අහිමි නොවී Ceph පොකුරෙන් OSD ආරක්ෂිතව ඉවත් කරන්න

OSD ඉවත් කිරීමේ අවශ්‍යතාවය ඇති විය හැක්කේ පොකුරෙන් සේවාදායකය ඉවත් කිරීමෙන් - උදාහරණයක් ලෙස, එය වෙනත් සේවාදායකයක් සමඟ ප්‍රතිස්ථාපනය කිරීම - මෙම ලිපිය ලිවීමට හේතු වන අපට සිදුවූයේ එයයි. මේ අනුව, උපාමාරු කිරීමේ අවසාන ඉලක්කය වන්නේ එය නැවැත්විය හැකි පරිදි ලබා දී ඇති සේවාදායකයක සියලුම OSD සහ mons උපුටා ගැනීමයි.

පහසුව සඳහා සහ විධාන ක්‍රියාත්මක කිරීමේදී, අවශ්‍ය OSD දැක්වීමේදී අපට වැරදීමක් සිදු වන තත්වයක් වළක්වා ගැනීම සඳහා, අපි වෙනම විචල්‍යයක් සකසන්නෙමු, එහි අගය මකා දැමිය යුතු OSD අංකය වේ. අපි ඇයට කතා කරමු ${ID} — මෙහි සහ පහත, එවැනි විචල්‍යයක් අප වැඩ කරන OSD අංකය ප්‍රතිස්ථාපනය කරයි.

වැඩ ආරම්භ කිරීමට පෙර තත්වය දෙස බලමු:

root@hv-1 ~ # ceph osd tree
ID CLASS WEIGHT  TYPE NAME      STATUS REWEIGHT PRI-AFF
-1       0.46857 root default
-3       0.15619      host hv-1
-5       0.15619      host hv-2
 1   ssd 0.15619      osd.1     up     1.00000  1.00000
-7       0.15619      host hv-3
 2   ssd 0.15619      osd.2     up     1.00000  1.00000

OSD ඉවත් කිරීම ආරම්භ කිරීමට, ඔබ සුමටව ක්‍රියාත්මක කිරීමට අවශ්‍ය වනු ඇත reweight එය මත බිංදුවට. මේ විදියට අපි OSD එකේ තියෙන Data ප්‍රමාණය වෙනත් OSD වලට බැලන්ස් කරලා අඩු කරනවා. මෙය සිදු කිරීම සඳහා, පහත දැක්වෙන විධානයන් ක්රියාත්මක කරන්න:

ceph osd reweight osd.${ID} 0.98
ceph osd reweight osd.${ID} 0.88
ceph osd reweight osd.${ID} 0.78

... සහ එසේ බිංදුව දක්වා.

සුමට සමතුලිතතාවයක් අවශ්ය වේදත්ත නැති නොවන පරිදි. OSD විශාල දත්ත ප්‍රමාණයක් අඩංගු නම් මෙය විශේෂයෙන්ම සත්‍ය වේ. විධාන ක්‍රියාත්මක කිරීමෙන් පසු බව තහවුරු කර ගැනීමට reweight සෑම දෙයක්ම හොඳින් සිදු විය, ඔබට එය සම්පූර්ණ කළ හැකිය ceph -s හෝ වෙනම ටර්මිනල් කවුළුවක ධාවනය කරන්න ceph -w සැබෑ කාලය තුළ වෙනස්කම් නිරීක්ෂණය කිරීම සඳහා.

OSD "හිස්" වූ විට, එය ඉවත් කිරීමට සම්මත මෙහෙයුම සමඟ ඉදිරියට යා හැක. මෙය සිදු කිරීම සඳහා, අවශ්ය OSD රාජ්යයට මාරු කරන්න down:

ceph osd down osd.${ID}

අපි OSD පොකුරෙන් "අදින්න" කරමු:

ceph osd out osd.${ID}

අපි OSD සේවාව නවතා FS හි එහි කොටස ඉවත් කරමු:

systemctl stop ceph-osd@${ID}
umount /var/lib/ceph/osd/ceph-${ID}

OSD ඉවත් කරන්න ක්‍රෂ් සිතියම:

ceph osd crush remove osd.${ID}

OSD පරිශීලකයා මකා දමමු:

ceph auth del osd.${ID}

අවසාන වශයෙන්, අපි OSD ම ඉවත් කරමු:

ceph osd rm osd.${ID}

අදහස් දැක්වීම්: ඔබ Ceph Luminous අනුවාදය හෝ ඊට වැඩි අනුවාදයක් භාවිතා කරන්නේ නම්, ඉහත OSD ඉවත් කිරීමේ පියවර විධාන දෙකකට අඩු කළ හැක:

ceph osd out osd.${ID}
ceph osd purge osd.${ID}

ඉහත විස්තර කර ඇති පියවර සම්පූර්ණ කිරීමෙන් පසු, ඔබ විධානය ක්‍රියාත්මක කරන්නේ නම් ceph osd tree, එවිට කාර්යය සිදු කරන ලද සේවාදායකයේ ඉහත මෙහෙයුම් සිදු කරන ලද OSD තවදුරටත් නොමැති බව පැහැදිලි විය යුතුය:

root@hv-1 ~ # ceph osd tree
ID CLASS WEIGHT  TYPE NAME     STATUS REWEIGHT PRI-AFF
-1       0.46857      root default
-3       0.15619      host hv-1
-5       0.15619      host hv-2
-7       0.15619      host hv-3
 2   ssd 0.15619      osd.2    up     1.00000  1.00000

මාර්ගය ඔස්සේ, Ceph පොකුරේ තත්වයට යන බව සලකන්න HEALTH_WARN, සහ OSD සංඛ්‍යාවේ සහ පවතින තැටි ඉඩ ප්‍රමාණයේ අඩුවීමක් ද අපට පෙනෙනු ඇත.

ඔබට සේවාදායකය සම්පූර්ණයෙන්ම නැවැත්වීමට අවශ්‍ය නම් සහ ඒ අනුව එය Ceph වෙතින් ඉවත් කිරීමට අවශ්‍ය නම් අවශ්‍ය පියවර පහතින් විස්තර කෙරේ. මෙම අවස්ථාවේදී, එය මතක තබා ගැනීම වැදගත්ය සේවාදායකය වසා දැමීමට පෙර, ඔබ සියලු OSD ඉවත් කළ යුතුය මෙම සේවාදායකයේ.

මෙම සේවාදායකයේ තවත් OSD ඉතිරිව නොමැති නම්, ඒවා ඉවත් කිරීමෙන් පසු ඔබට OSD සිතියමෙන් සේවාදායකය බැහැර කළ යුතුය. hv-2පහත විධානය ක්‍රියාත්මක කිරීමෙන්:

ceph osd crush rm hv-2

මකන්න mon සේවාදායකයෙන් hv-2පහත විධානය වෙනත් සේවාදායකයක් මත ධාවනය කිරීමෙන් (එනම්, මෙම අවස්ථාවේදී, on hv-1):

ceph-deploy mon destroy hv-2

මෙයින් පසු, ඔබට සේවාදායකය නැවැත්විය හැකි අතර පසුකාලීන ක්රියාවන් ආරම්භ කළ හැකිය (එය නැවත යෙදවීම, ආදිය).

නඩු අංක 2. දැනටමත් නිර්මාණය කර ඇති Ceph පොකුරක් තුළ තැටි අවකාශය බෙදා හැරීම

මම දෙවන කතාව PG ගැන පෙරවදනකින් පටන් ගන්නම් (ස්ථානගත කිරීමේ කණ්ඩායම්) Ceph හි PG හි ප්‍රධාන කාර්යභාරය වන්නේ මූලික වශයෙන් Ceph වස්තු එකතු කිරීම සහ OSD තුළ ඒවා තවදුරටත් ප්‍රතිනිර්මාණය කිරීමයි. ඔබට අවශ්‍ය PG ප්‍රමාණය ගණනය කළ හැකි සූත්‍රය ඇත අදාළ කොටස සීෆ් ලියකියවිලි. විශේෂිත උදාහරණ සහිතව මෙම ගැටළුව ද එහි සාකච්ඡා කෙරේ.

ඉතින්: Ceph භාවිතා කිරීමේදී ඇති වන පොදු ගැටළුවක් වන්නේ Ceph හි සංචිත අතර OSD සහ PG අසමතුලිත සංඛ්යාවයි.

පළමුව, මේ නිසා, කුඩා තටාකයක ඕනෑවට වඩා PGs සඳහන් කළ විට තත්වයක් ඇති විය හැක, එය පොකුරේ තැටි අවකාශය අතාර්කික ලෙස භාවිතා කිරීමකි. දෙවනුව, ප්‍රායෝගිකව වඩාත් බරපතල ගැටළුවක් ඇත: එක් OSD එකක දත්ත පිටාර ගැලීම. මෙය පොකුර ප්‍රථමයෙන් රාජ්‍යයට සංක්‍රමණය වේ HEALTH_WARN, ඊළගට HEALTH_ERR. මෙයට හේතුව Ceph, පවතින දත්ත ප්‍රමාණය ගණනය කිරීමේදී (ඔබට එය සොයා ගත හැක MAX AVAIL විධාන ප්රතිදානය තුළ ceph df එක් එක් සංචිතය සඳහා වෙන වෙනම) OSD හි පවතින දත්ත ප්‍රමාණය මත පදනම් වේ. අවම වශයෙන් එක් OSD එකක ප්‍රමාණවත් ඉඩක් නොමැති නම්, සියලුම OSD අතර දත්ත නිසි ලෙස බෙදා හරින තෙක් තවත් දත්ත ලිවිය නොහැක.

මෙම ගැටළු ඇති බව පැහැදිලි කිරීම වටී Ceph පොකුරු වින්‍යාස කිරීමේ අදියරේදී බොහෝ දුරට තීරණය වේ. ඔබට භාවිතා කළ හැකි මෙවලම් වලින් එකකි Ceph PGCalc. එහි ආධාරයෙන්, PG හි අවශ්ය ප්රමාණය පැහැදිලිව ගණනය කර ඇත. කෙසේ වෙතත්, ඔබට Ceph පොකුර ඇති තත්වයක් තුළද එය භාවිතා කළ හැකිය දැනටමත් වැරදි ලෙස වින්‍යාස කර ඇත. නිවැරදි කිරීමේ කාර්යයේ කොටසක් ලෙස ඔබට බොහෝ විට PG සංඛ්‍යාව අඩු කිරීමට අවශ්‍ය වනු ඇති බව මෙහිදී පැහැදිලි කිරීම වටී, සහ මෙම විශේෂාංගය Ceph හි පැරණි අනුවාද වල නොමැත (එය දර්ශනය වූයේ අනුවාදයේ පමණි. නයිටිලස්).

එබැවින්, පහත පින්තූරය සිතමු: පොකුරට තත්වයක් ඇත HEALTH_WARN OSD එකක ඉඩ අවසන් වීම නිසා. මෙය දෝෂයක් මගින් පෙන්නුම් කෙරේ HEALTH_WARN: 1 near full osd. මෙම තත්වයෙන් මිදීම සඳහා ඇල්ගොරිතමයක් පහත දැක්වේ.

පළමුවෙන්ම, ඔබට පවතින දත්ත ඉතිරි OSD අතර බෙදා හැරිය යුතුය. අපි දැනටමත් පළමු අවස්ථාවේ දී සමාන මෙහෙයුමක් සිදු කර ඇත, අපි නෝඩය “ජලා දැමූ” විට - එකම වෙනස සමඟ දැන් අපට තරමක් අඩු කිරීමට අවශ්‍ය වනු ඇත reweight. උදාහරණයක් ලෙස, 0.95 දක්වා:

ceph osd reweight osd.${ID} 0.95

මෙය OSD හි තැටි ඉඩ නිදහස් කරන අතර ceph සෞඛ්‍යයේ දෝෂය නිවැරදි කරයි. කෙසේ වෙතත්, දැනටමත් සඳහන් කර ඇති පරිදි, මෙම ගැටළුව ප්‍රධාන වශයෙන් සිදු වන්නේ ආරම්භක අදියරේදී Ceph හි වැරදි වින්‍යාසය හේතුවෙන්: අනාගතයේදී එය නොපෙන්වන ලෙස නැවත වින්‍යාස කිරීම ඉතා වැදගත් වේ.

අපගේ විශේෂිත අවස්ථාවෙහිදී, ඒ සියල්ල පහත දක්වා ඇත:

  • වටිනාකම වැඩියි replication_count එක් තටාකයක,
  • එක් තටාකයක PG ඕනෑවට වඩා සහ තවත් තටාකයක ඉතා අඩුය.

අපි දැනටමත් සඳහන් කර ඇති කැල්කියුලේටරය භාවිතා කරමු. ඇතුළත් කළ යුතු දේ පැහැදිලිව පෙන්නුම් කරන අතර, ප්රතිපත්තිමය වශයෙන්, සංකීර්ණ කිසිවක් නොමැත. අවශ්‍ය පරාමිතීන් සැකසීමෙන් පසු, අපට පහත නිර්දේශ ලැබේ:

අදහස් දැක්වීම්: ඔබ මුල සිටම Ceph පොකුරක් සකසන්නේ නම්, කැල්කියුලේටරයේ තවත් ප්රයෝජනවත් කාර්යයක් වන්නේ වගුවේ දක්වා ඇති පරාමිතීන් සමඟ මුල සිටම සංචිත නිර්මාණය කරන විධානයන් උත්පාදනය කිරීමයි.

අවසාන තීරුව ඔබට සැරිසැරීමට උපකාරී වේ - යෝජිත PG ගණන. අපගේ නඩුවේදී, දෙවැන්න ද ප්‍රයෝජනවත් වේ, එහිදී ප්‍රතිවර්තන පරාමිතිය දක්වා ඇත, මන්ද අපි ප්‍රතිවර්තන ගුණකය වෙනස් කිරීමට තීරණය කළෙමු.

එබැවින්, පළමුව ඔබ අනුකරණ පරාමිතීන් වෙනස් කළ යුතුය - මෙය පළමුව කිරීම වටී, ගුණකය අඩු කිරීමෙන් අපි තැටි ඉඩ නිදහස් කරමු. විධානය ක්‍රියාත්මක වන විට, පවතින තැටි ඉඩ වැඩි වන බව ඔබට පෙනෙනු ඇත:

ceph osd pool $pool_name set $replication_size

එය අවසන් වූ පසු, අපි පරාමිති අගයන් වෙනස් කරමු pg_num и pgp_num පහත පරිදි:

ceph osd pool set $pool_name pg_num $pg_number
ceph osd pool set $pool_name pgp_num $pg_number

වැදගත්: අපි එක් එක් තටාකයේ අනුපිළිවෙලින් PG ගණන වෙනස් කළ යුතු අතර අනතුරු ඇඟවීම් අතුරුදහන් වන තුරු අනෙකුත් සංචිතවල අගයන් වෙනස් නොකළ යුතුය "අඩු වූ දත්ත අතිරික්තය" и "n-පහළ ගිය පිටු ගණන".

විධාන ප්‍රතිදාන භාවිතයෙන් සියල්ල හොඳින් සිදු වූවාදැයි ඔබට පරීක්ෂා කළ හැකිය ceph health detail и ceph -s.

නඩු අංක 3. අථත්‍ය යන්ත්‍රයක් LVM සිට Ceph RBD වෙත සංක්‍රමණය කිරීම

ව්‍යාපෘතියක් කුලියට ගත් හිස්-ලෝහ සේවාදායකයන් මත ස්ථාපනය කර ඇති අථත්‍ය යන්ත්‍ර භාවිතා කරන තත්වයක් තුළ, දෝෂ ඉවසීමේ ගබඩා කිරීමේ ගැටළුව බොහෝ විට පැන නගී. මෙම ගබඩාවේ ප්‍රමාණවත් ඉඩක් තිබීම ද ඉතා යෝග්‍ය වේ ... තවත් පොදු තත්වයක්: සේවාදායකයේ දේශීය ගබඩාව සහිත අථත්‍ය යන්ත්‍රයක් ඇති අතර ඔබට තැටිය පුළුල් කිරීමට අවශ්‍ය වේ, නමුත් යන්නට තැනක් නැත, මන්ද එහි නැත. සේවාදායකයේ නිදහස් තැටි ඉඩ ඉතිරිව ඇත.

ගැටළුව විවිධ ආකාරවලින් විසඳා ගත හැකිය - උදාහරණයක් ලෙස, වෙනත් සේවාදායකයකට සංක්රමණය කිරීමෙන් (එක් නම්) හෝ සේවාදායකයට නව තැටි එකතු කිරීම. නමුත් මෙය සැමවිටම කළ නොහැක, එබැවින් LVM සිට Ceph වෙත සංක්‍රමණය වීම මෙම ගැටලුවට විශිෂ්ට විසඳුමක් විය හැකිය. මෙම විකල්පය තෝරා ගැනීමෙන්, අපි සේවාදායකයන් අතර සංක්‍රමණයේ වැඩිදුර ක්‍රියාවලිය සරල කරමු, මන්ද දේශීය ගබඩාව එක් හයිපර්වයිසරයකින් තවත් එකකට ගෙනයාමට අවශ්‍ය නොවනු ඇත. වැඩේ කරගෙන යනකොට VM එක නවත්තන්න වෙන එක විතරයි අල්ලගන්නේ.

පහත වට්ටෝරුව ලබාගෙන ඇත මෙම බ්ලොග් අඩවියෙන් ලිපිය, උපදෙස් ක්‍රියාවෙන් පරීක්ෂා කර ඇත. ඒ කෙසේ වුවත්, කරදරයකින් තොරව සංක්‍රමණය කිරීමේ ක්‍රමය ද එහි විස්තර කෙරේ, කෙසේ වෙතත්, අපගේ නඩුවේදී එය සරලව අවශ්ය නොවේ, එබැවින් අපි එය පරීක්ෂා නොකළෙමු. මෙය ඔබගේ ව්‍යාපෘතිය සඳහා තීරනාත්මක නම්, අදහස් දැක්වීම්වල ප්‍රතිඵල ගැන දැනගැනීමට අපි සතුටු වන්නෙමු.

අපි ප්‍රායෝගික කොටස වෙත යමු. උදාහරණයේදී අපි virsh සහ ඒ අනුව libvirt භාවිතා කරමු. පළමුව, දත්ත සංක්‍රමණය වන Ceph සංචිතය libvirt වෙත සම්බන්ධ කර ඇති බවට වග බලා ගන්න:

virsh pool-dumpxml $ceph_pool

සංචිත විස්තරයේ අවසර දත්ත සමඟ Ceph වෙත සම්බන්ධතා දත්ත අඩංගු විය යුතුය.

ඊළඟ පියවර වන්නේ LVM රූපය Ceph RBD බවට පරිවර්තනය කිරීමයි. ක්‍රියාත්මක කිරීමේ කාලය මූලික වශයෙන් රූපයේ ප්‍රමාණය මත රඳා පවතී:

qemu-img convert -p -O rbd /dev/main/$vm_image_name rbd:$ceph_pool/$vm_image_name

පරිවර්තනයෙන් පසුව, LVM රූපයක් පවතිනු ඇත, VM RBD වෙත සංක්‍රමණය කිරීම අසාර්ථක වුවහොත් සහ ඔබට වෙනස්කම් ආපසු හැරවීමට එය ප්‍රයෝජනවත් වනු ඇත. එසේම, වෙනස්කම් ඉක්මනින් ආපසු හැරවීමට හැකි වන පරිදි, අපි අතථ්‍ය යන්ත්‍ර වින්‍යාස ගොනුවේ උපස්ථයක් කරමු:

virsh dumpxml $vm_name > $vm_name.xml
cp $vm_name.xml $vm_name_backup.xml

... සහ මුල් පිටපත සංස්කරණය කරන්න (vm_name.xml) තැටියේ විස්තරයක් සහිත බ්ලොක් එකක් සොයා ගනිමු (රේඛාවෙන් ආරම්භ වේ <disk type='file' device='disk'> සහ අවසන් වේ </disk>) සහ එය පහත පෝරමයට අඩු කරන්න:

<disk type='network' device='disk'>
<driver name='qemu'/>
<auth username='libvirt'>
  <secret type='ceph' uuid='sec-ret-uu-id'/>
 </auth>
<source protocol='rbd' name='$ceph_pool/$vm_image_name>
  <host name='10.0.0.1' port='6789'/>
  <host name='10.0.0.2' port='6789'/>
</source>
<target dev='vda' bus='virtio'/> 
<alias name='virtio-disk0'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x04' function='0x0'/>
</disk>

අපි විස්තර කිහිපයක් බලමු:

  1. ප්රොටෝකෝලය වෙත source Ceph RBD හි ගබඩාවේ ලිපිනය දක්වා ඇත (මෙය Ceph සංචිතයේ නම සහ RBD රූපයේ නම දැක්වෙන ලිපිනයයි, එය පළමු අදියරේදී තීරණය කරන ලදී).
  2. බ්ලොක් එකේ secret වර්ගය දක්වා ඇත ceph, මෙන්ම එයට සම්බන්ධ වීමට රහසේ UUID. එහි uuid විධානය භාවිතයෙන් සොයාගත හැකිය virsh secret-list.
  3. බ්ලොක් එකේ host Ceph මොනිටර වෙත ලිපිනයන් දක්වා ඇත.

වින්‍යාස ගොනුව සංස්කරණය කර LVM සිට RBD බවට පරිවර්තනය කිරීමෙන් පසුව, ඔබට නවීකරණය කරන ලද වින්‍යාස ගොනුව යොදවා අතථ්‍ය යන්ත්‍රය ආරම්භ කළ හැක:

virsh define $vm_name.xml
virsh start $vm_name

අතථ්‍ය යන්ත්‍රය නිවැරදිව ආරම්භ වී ඇත්දැයි පරීක්ෂා කිරීමට කාලයයි: උදාහරණයක් ලෙස, SSH හරහා හෝ හරහා එයට සම්බන්ධ වීමෙන් ඔබට සොයා ගත හැකිය. virsh.

අතථ්‍ය යන්ත්‍රය නිවැරදිව ක්‍රියා කරන්නේ නම් සහ ඔබ වෙනත් ගැටළු කිසිවක් සොයාගෙන නොමැති නම්, ඔබට තවදුරටත් භාවිතා නොකරන LVM රූපය මකා දැමිය හැක:

lvremove main/$vm_image_name

නිගමනය

විස්තර කර ඇති සියලුම සිද්ධීන් ප්‍රායෝගිකව අපට හමු විය - අනෙකුත් පරිපාලකයින්ට සමාන ගැටළු විසඳීමට උපදෙස් උපකාරී වනු ඇතැයි අපි බලාපොරොත්තු වෙමු. Ceph භාවිතයෙන් ඔබේ අත්දැකීම් වලින් ඔබට අදහස් හෝ වෙනත් සමාන කථා තිබේ නම්, ඒවා අදහස් දැක්වීමේදී දැකීමට අපි සතුටු වන්නෙමු!

ප්රාදේශීය සභා

අපගේ බ්ලොග් අඩවියේ ද කියවන්න:

මූලාශ්රය: www.habr.com

අදහස් එක් කරන්න