Single Node構成の破壊と再構築(RF1->RF2)

 概要

ラボでNutanix Single Nodeの破壊(Destroy)と再構築を実施したのでその際のメモ。

再構築の理由としてはSingle Node構築時にうっかりRF1で構築してしまったので、RF2に変更するため。

  

クラスタ破壊前のFault Telerance

 

 Prism ElementDashboradCluser Fault Tolerance0N/0Dとなっており、データの冗長性がない状態になってしまっている。

  

関連ドキュメント

 Destroy Cluster

https://portal.nutanix.com/page/documents/details?targetId=Advanced-Admin-AOS:app-cluster-destroy-t.html

 Prism CentralからのUnregister

https://portal.nutanix.com/page/documents/details?targetId=Web-Console-Guide-Prism:mul-register-wc-t.html

 

 Prism CentralからのUnregister

該当クラスタがPrism Centralに登録してある場合は、まずは登録解除をする必要がある

 

!!注意!!

一旦クラスタをPrism Centralから登録解除をすると基本的に二度と再登録はできません。

登録解除したクラスタは破壊することが前提となる操作ですので、別の理由で登録解除する場合はご注意ください。

 

クラスタ側からの登録解除

cvm$ ncli multicluster remove-from-multicluster external-ip-address-or-svm-ips=pc-name-or-ip username=pc-username password=pc-password

 

クラスタIDの確認

cvm$ ncli multicluster get-cluster-state

cvm$ ncli cluster info

 

PCVMで前段で確認したUUIDを用いてCleanupを実施する

pcvm$ python /home/nutanix/bin/unregistration_cleanup.py uuid-in-previous-command-on-cvm

 

Prism CentralUUIDの確認

pcvm$ ncli cluster info

 

 CVMで前段で確認したUUIDを用いてClenaupを実施する

cvm$ python /home/nutanix/bin/unregistration_cleanup.py uuid-in-previous-command-on-pcvm

 

クラスタの破壊

特に難しいことはなくいずれかのCVMで以下のコマンドを実行する。Destroyは不可逆な操作なので十分に注意すること

cvm$ cluster stop

cvm$ cluster destroy

 

クラスタの再構築

クラスタの構築は以下のコマンドで実行する

cluster -s cvm_ip create

 

RF1で構築する場合は、--redundancy_factor=1 のオプションをつけるが今回はRF2で作成するためこのオプションは利用しない

 

クラスタ再構築後の作業

クラスタを再構築した後は一連の初期設定作業を行う

  • Prism Elementへの初回ログイン(Pulseやパスワード変更など)
  • DNS/NTPの登録
  • LVM Inventoryの実行(自動化の設定)
  • Prism Centralへの再登録

  

補足:Reimageと異なり、クラスタ破壊前に実施したバージョンアップはそのままだったため、LCM アップグレードの実施しなおしは必要なかった

  

再構築後のCluster Fault Tolerance

想定通りRF21N/1D)で構成できた。

Single Nodeなので、Failure DomainNodeではなくDiskになっている

  

  

コメント

このブログの人気の投稿

NutanixサイザーのCPUリソース計算について調べたこと

Nutanixクラスタにノードを追加する

(Nutanix)Dell XC モデルのアップグレード準備メモ(LTS 6.5.x -> 6.10)