Replies posted by smzksts

64 Replies

Nutanix CE 2.0 よろず相談所

@Hidetaka さんご返信ありがとうございます。CVMのメモリサイズ指定自体は問題無さそうです。一方で、Hugepagesに関する出力結果を見ると、Hugepagesize以外の行が軒並み0になっているので、お使いのマシンではHugepageが有効でないように見えます。有効な場合AnonHugePages, HugePages_Total, HugePages_Free, Hugetlbあたりに容量が反映されています。これを頼りに少し掘り下げるため、virsh edit CVM名 でCVMの構成情報を開いてみると、CPU周りの設定がCE 2.0では  <cpu mode='host-passthrough' check='none'>    <numa>      <cell id='0' cpus='0-3' memory='20971520' unit='KiB' memAccess='shared'/>    </numa>  </cpu>となっていました。https://libvirt.org/formatdomain.htmlによると、以下の記載がありました。Since 1.2.9 the optional attribute memAccess can control whether the memory is to be mapped as "shared" or "private". This is valid only for hugepages-backed memory and nvdimm modules.よって・memAccess='shared'という設定があることでhugepagesが要求されている・このマシンには払い出し可能なhugepagesがないという状態が原因でCVMが起動しなくなっているものと推測しています。比較のためce-2020.09.16のCVMの構成情報を確認したところ、CVMのCPU設定は以下のようになっていました。  <cpu mode='host-passthrough' check='none'>    <feature policy='disable' name='spec-ctrl'/>  </cpu>mem

Nutanix CE 2.0 よろず相談所

@nukopal さんハードウェアの認識等の段階で問題があった場合はそもそもCVMが上がってくれないので、今回はその線は薄いかなと思います。気になったエラーメッセージとしてはPlease make sure that the SVMs from which you wish to create the cluster are not already part of another cluster.という部分でして、こちらは -s オプションで指定したCVMが既にクラスタに組み込まれている可能性がある場合に表示されるものです。試しに私の構築済み環境で cluster createした場合も同じメッセージが表示されました。nutanix@NTNX-4fe1d95c-A-CVM:192.168.10.37:~$ cluster -s 192.168.10.37 --redundancy_factor=1 create2023-04-27 13:57:04,322Z INFO MainThread cluster:2943 Executing action create on SVMs 192.168.10.372023-04-27 13:57:07,355Z CRITICAL MainThread cluster:1001 Could not discover all nodes specified. Please make sure that the SVMs from which you wish to create the cluster are not already part of another cluster. Undiscovered ips : 192.168.10.37nutanix@NTNX-4fe1d95c-A-CVM:192.168.10.37:~$ Connection to 192.168.10.37 closed by remote host.cluster status コマンドを実行した際、クラスタ作成済みですと下記のようにズラリと稼働中のサービスおよびプロセスIDが表示されますが、同じようなものが表示されないでしょうか。nutanix@NTNX-4fe1d95c-A-CVM:192.168.10.37:~$ cluster statu

Nutanix CE 2.0 よろず相談所

@KeiStratanix さんQiita拝見しました。cluster -s 192.168.11.171 createをcluster -s 192.168.11.171 --redundancy_factor=1 createにしてみてください。Nutanix CEでは1, 3, 4ノード構成に対応していますが、Nutanixのアーキテクチャは本来複数ノードにまたがってデータを多重化するものであるため、1ノードの場合データの多重化ができません(※商用版だとエッジ環境向けや小規模バックアップ向けに1ノード内でデータを2重化する構成も存在するのですが、より多い本数のディスクが必要です)。そのため、CEでの1ノード構成の場合にはクラスタ作成時に「データは多重化しない」と明示的に指定するために--redundancy_factor=1というオプションを指定する必要があります。必然的に冗長性が無い状態となりますので、大事なデータは外部にバックアップを取っておくようにしてください。ついでにQiitaに書かれていた疑問点にもお答えしておくと[C](CVM)がHot TIer, [D](Data)がCold Tierという理解でOKです。そのため、[C]はSSD必須ですが、[D]はHDDでも大丈夫です。ただしHot/Cold Tierという概念は速度の異なるディスク向けに作られた仕組みなので、仮に[C]と[D]が同タイプのSSD同士だとHot/Cold Tierという階層の使い分けは行われなくなります。いずれにせよTier間のデータの移動は自動で行われるのであまり意識する必要はありませんが…。また、2台構成で構築予定と書かれていたのですが、↑に書いた通り2ノードでのクラスタは組めないので、2ノード縛りであれば1ノードでそれぞれ作成して、リモートレプリケーション(Protection Domainのリモートサイト)でディザスタリカバリの実験をするのがおススメです。

Badges

Show all badges