Nutanix CE 2.0 よろず相談所


Userlevel 4
Badge +9

Nutanix CE よろず相談所が長くなってきた&Nutanix CE 2.0 がリリースされたいい機会なので、こちらに移行したいと思います。


63 replies

@smzksts  さん

お返事ありがとうございます。

numaの設定を削除してみましたが、AHVをrebootすると、

numaの設定がもとに戻ってしまいます。

どこぞのAIに聞いてみたところ、仮想マシンを消去するように

アドバイスされたので実行したところ、当然CVMが消え去りましたので、

後ほど再インストール予定です。

@smzksts  さん

今朝再インストールしたところ、

    <pae/>
  </features>
  <cpu mode='host-passthrough' check='none'/>
  <clock offset='utc'/>

となっており、なぜかnumaの設定自体が有りませんでした。

CVMがメモリ確保できずに起動しないのは相変わらずとなります。

別にce2.0の環境はあるので、この機材は旧verで利用しようかと思います。

いろいろとご確認頂き、ありがとうございました。

以下の英語版のフォーラムで記載されているものと同環境(ESXIのNested)にて環境作成中ですが、

3ノードクラスタ→4ノードクラスタへのノード追加が同じエラー(KB-8842)で失敗します。

https://next.nutanix.com/discussion-forum-14/the-cluster-expansion-fails-with-ssd-tier-on-nodes-u-192-168-105-11-is-not-sized-to-accomodate-expected-metadata-growth-on-cluster-40908


CEだとクラスタへのノード追加には未対応なのでしょうか?
英語版フォーラムをしばらくトレースしてましたが、11か月動きがないのでもう回答はつかないのかと思いこちらで質問させていただきます。

 

@smzksts さま

NutanixCE2.0のインストールで、再起動の時(インストーラUSBを抜いた状態)に、表示された「No boot device available」が解消されました。

AHVのブートディスクの差込場所を3番から1番に変更したら、ブートできました。

アドバイスをいただき、ありがとうございました。

シングルノードのNutanixCEにディスク(SSD ITB)を増設したいですが、増設可能でしょうか?

可能な場合、増設方法をご教授いただけないでしょうか?
■物理サーバー構成
 ・サーバー:DELLPowerEdgeR620
 ・RIADコントローラ:PERC H710 Mini
 ・ディスク情報:
   ①sda SSD 256GB(Micron1100 2.5インチ) (AHVブートディスク)
   ②sdb SSD 1TB (Crucial MX500 2.5インチ) (CVMブートディスク)
   ③sdc SSD 1TB (Crucial MX500 2.5インチ) (データ)
   ④sdd SDD 1TB ←増設用

 

ce-2020.09.16をシングルクラスターで運用していたのですが、ハイパーバイザのUSBメモリが壊れてしまったようで再起動したタイミングで起動できなくなってしまいました。
復旧方法を教えていただけないでしょうか?
 

Userlevel 4
Badge +9

@t-hashimoto さん

ノード追加で失敗する件は、私も検証できていないので現時点では有益な情報を持ち得ていない状態です…。

@xiaoyan さん

私自身が試したことはないのですが、↓が参考になるかもしれません。
https://next.nutanix.com/discussion-forum-14/add-disk-to-node-39209

これで上手くいかない場合は再インストールが早いと思います。

@H.S さん

ce-2020.09.16 以降はUSBメモリのみのインストールが出来なくなってしまいました。
大昔はあったのですが…。残念ながら再インストールが必要となります。

@smzksts さん
ご返事いただき、ありがとうございます。
やはり無理ですか、ネットの記事で旧バージョンや3ノードの復旧方法は見つかったのですが…

SSDやHDDは問題ないのですが、ここからVMだけでも取り出す方法はあるでしょうか?

Hypervisor Boot、CVM Bootのそれぞれで必要な容量についてご教授頂けますでしょうか。

また、NUCでの構築を考えており、ストレージのインターフェイスとしては下記があるようなのですが

USBはHypervisor用として、それ以外に22x80 NVMe (M)と22x42 SATA (B)があり、

CVMとData用にどちらを割り当てるのが最適か(CVMにそれなりにパフォーマンスが求められるものなのであればNVMe?)についても教えていただけますと幸いです。

NUCとしてはNUC12WSHi5を予定しており、さらにSATAもあるようなので、Cold Tierとしても使えれば使いたいと考えております。

Userlevel 4
Badge +9

@H.S さん
すみません返信遅くなりました。残念ながらCEでは1ノードの場合復旧不可となります。

Userlevel 4
Badge +9

@inshy さん
CVM用とData用の選択基準についてですが、CVM用ディスクにはCVM用パーティションが切られ、そのディスクのCVM用パーティション以外の領域にはデータが配置されます。データ配置の優先度としてはCVM用ディスクのデータ領域の方が、Data用ディスクよりも上位なので、基本的に最速のストレージ(ご利用予定のNUCならNVMe)をCVM用にすることをお勧めします。

異なる3タイプのストレージでの階層化はうまく行かない可能性が多分にあるため、Data用ディスクとしてはM.2 22x42 SATAか、SATAのどちらか一方を使用するのが無難です(個人的には入手性を鑑みてSATAでいいかな、と思います)。

@smzksts さん

ご回答頂きありがとうございます。

CVM用に1つディスクが専有されるものと思っておりました。

CVM用のディスクにDataパーティションも作成されるとのことで、こちらのディスクをNVMeにしたいと思います。ありがとうございます。

また、コストは上がるかもしれませんが、M.2 22x42 SATAをHypervisor用にしたいと思います。

実際使用される容量としては、HypervisorもCVMも数十GB程度でしょうか?

Nutanix CEのインストールは成功したものの、コンソール画面のNEXTアカウントの認証に失敗しています。理由は認証サーバとの疎通ができてないためです。

どなたか認証サーバのFQDN名とIPアドレスを教えてもらえませんでしょうか。

ちなみにプロキシサーバ経由で通信しています。プロキシサーバの設定、DNSサーバの設定は事前にコマンドで設定済み。こちらの設定はあっております。プロキシへのCVMの登録もしており、nutanix.comやnext.nutanix.comへ通信できるようにはしています。

Userlevel 4
Badge +9

@inshy さん

Hypervisorは容量的には16GBのUSBメモリでもインストールできるかと思うのですが、ハイパーバイザーブート領域用に使うとかなり壊れやすいので、M.2 NVMeか32GBの産業用USBメモリ(https://amzn.asia/d/cxyiHIM)を愛用しています。以前はMLCのUSBメモリを使っていたのですが、書き込み耐性に問題が無くても長時間稼働よる発熱で故障している気がしまして…産業用だと温度周りのスペックが明示されていて、耐性の面でも良さそうです。

CVM用のディスクは、60GBくらい使われていました。↓の例だと1.8Tの部分はデータディスクとしって使われています。

 

Userlevel 4
Badge +9

@STier さん

認証周りですと my.nutanix.com へのアクセスも必要かと思いますのでご確認頂けますでしょうか。

@smzksts さん

産業用のものがあるのですね。

参考にさせて頂きます。

ご回答頂き、ありがとうございました。

 

@smzksts さん

無事検証環境の方、構築することができました。ありがとうございました!

2点質問させてください。

・AHVのrootパスワードについて

 Prism上でAHVのrootパスワードがデフォルトのものという警告が表示されており、AHVにssh接続して、「passwd root」を実行してパスワード変更を行ったのですが少し経ってからAHVに直接sshすると認証にはじかれてしまいました。

 CVMからAHVにssh接続し、faillockコマンドで確認すると、CVMから数分間隔でログイン試行があり、これが原因と考えているのですが、AHVのrootパスワード変更に伴い、CVM側で何か設定変更が必要なのでしょうか。

・CVMのrootパスワードについて

 AHVと間違えて1ノードCVMのrootパスワードを変更してしまったのですが、CVMのrootパスワードはデフォルトから変更してしまっても問題ございませんでしょうか。

 

Userlevel 4
Badge +9

みなさま

こちらのトピックが意図せずCloseされてしまっておりましたが、再オープン致しました。ご不便をお掛けし申し訳ございません。

なお、今後またこちらがCloseされてしまった場合、ご質問を質問を新規トピックとして日本語フォーラムご投稿いただいても差し支えございませんので適宜ご利用ください。

現在、社内のサーバにNutanix CEをiLO経由(iLOのコンソール画面でCD/DVDをマウントできるので、そこからローカルにあるNutanix CEのISOファイルをマウント)で取り込み、起動を行っておりますが、途中で止まってしまいます。

 

止まってしまう箇所は下記となります。

INFO Getting AOS Version from /mnt/iso/images/svm/nutanix_installer_package.tar.p00, This may take a few minites if Phoenix is running from BMC

 

BMC経由だと数分間時間がかかるとメッセージには出ておりますが、2時間以上経過してもこのままです。解決策をご教授していただきたいです。

 

備考:現在、このサーバには商用版のAOS 5.x(ライセンスは既に切れているので未使用)が入っているので、一度このクラスタを削除する必要があるのかなと思っております。

物理PC2台とNested Nutanix CE1台で3ノードクラスタを構成しようと考えております。
その中のうち1台の物理PCで問題が起きており、ご助力をいただきたく存じます。

対象物理PCスペック
CPU:Ryzen threadripper 2950X
MEM:64GB
NIC1:RealTek 2.5G(RTL8125AG)  ※接続なし
NIC2:Intel 1G (I211AT) ※接続なし
NIC3:Mellanox CX311A ※このNICのみ接続
GPU:Radeon RX580

この物理PCを含めた、3ノードでcluster createが完了しており、
このノードのCVMを指定してPrism Elementに接続・ログインが可能なことを確認しています。

ただ、対象のノードでのみ、NICを正常に認識できていない?接続できていないのか、

下記のような問題を確認しています。
①VM>Table(Include controller VMにチェック)で確認すると、このノードのCVMのみ表示されない(他2ノードのCVMは表示されている)
②HardwareからこのノードのNICを確認すると、NIC1~3が表示されない
③設定>Network Configuration>Virtual SwitchでVS0に赤色!の表示で、
 Virtual switch was not deployed successfully to all nodes in the cluster. Please check NCC warnings to resolve any relevant issues and then redeploy this virtual switch.
 の文言が表示される
④VS0を編集、Uplink Configurationで対象のノードのみ赤色!が表示されており、
 Uplink Ports: eth0, eth2 assigned to the virtual switch are unavailable.
 が表示、NICも10Gと1Gとも0portsの表示

これらの問題にあたって、確認・対応した点は下記となります。
ただ、問題は解消していません。
① AHVで、dmesg | grep realtek
[    1.016629] r8169 0000:06:00.0: no dedicated PHY driver found for PHY ID 0x001cc800, maybe realtek.ko needs to be added to initramfs?
 が確認できたため、
  のNo11のNote: [Realtek NICs Only]を実行、Rebootして、
 dmesg | grep realtekで何も表示されないことを確認。
②対象ノードのCVMで
 manage_ovs show_interfacesを実行すると下記の表示がされる。(情報として確認のみ)
 name  mode  link speed
 eth0  1000  False  False
 eth1  2500 False   False
 eth2 10000  True 10000

 
ややこしくて申し訳ないのですが、
どのように対処すべきか教えていただけないでしょうか?

現在、Nutanix CE2.0にPrism Centralをデプロイしたいのですが、失敗してしまいます。

調査してわかったこととして、PCのeht0に静的IPアドレスが振られていないことが判明したので

手動でIPアドレスを振り直したところ、IFのIPアドレスにはpingが成功しました。

しかし、DGWへのPINGは失敗していまします(同セグメントなのに…)。

DGWはCVMと同じアドレスとなります。また、CVMと同じサブネットマスクを使用しています。

 

こちら、考えられる原因としてはどういったことがございますでしょうか。

ご教授していただけると助かります。

 

NWの疎通さえ解消すれば、cluster --cluster_function_list="multicluster" -s <PCVMのアドレス> createが実行可能となり、PCのデプロイが完了するはずです。

 

PCは2022.9を使用しました。

現在、社内のサーバにNutanix CEをiLO経由(iLOのコンソール画面でCD/DVDをマウントできるので、そこからローカルにあるNutanix CEのISOファイルをマウント)で取り込み、起動を行っておりますが、途中で止まってしまいます。

 

止まってしまう箇所は下記となります。

INFO Getting AOS Version from /mnt/iso/images/svm/nutanix_installer_package.tar.p00, This may take a few minites if Phoenix is running from BMC

 

BMC経由だと数分間時間がかかるとメッセージには出ておりますが、2時間以上経過してもこのままです。解決策をご教授していただきたいです。

 

備考:現在、このサーバには商用版のAOS 5.x(ライセンスは既に切れているので未使用)が入っているので、一度このクラスタを削除する必要があるのかなと思っております。

 

こちら、解決しました。

現在、Nutanix CE2.0にPrism Centralをデプロイしたいのですが、失敗してしまいます。

調査してわかったこととして、PCのeht0に静的IPアドレスが振られていないことが判明したので

手動でIPアドレスを振り直したところ、IFのIPアドレスにはpingが成功しました。

しかし、DGWへのPINGは失敗していまします(同セグメントなのに…)。

DGWはCVMと同じアドレスとなります。また、CVMと同じサブネットマスクを使用しています。

 

こちら、考えられる原因としてはどういったことがございますでしょうか。

ご教授していただけると助かります。

 

NWの疎通さえ解消すれば、cluster --cluster_function_list="multicluster" -s <PCVMのアドレス> createが実行可能となり、PCのデプロイが完了するはずです。

 

PCは2022.9を使用しました。

こちら、elementで作成したVLANのID付与ミスが原因でした。

@smzksts

先日は現地セミナにて遅くまでありがとうございました。

いろいろとCEについてインストールを実行しているのですが、うまくいかずに悩んでいるので教えてください。

 

環境としては、HP DL360でSSD1.4TBの1本、HDD900GBのを3本の構成で動かしております。

CEのインストールも完了して、いざ実行というときにclusterコマンドを投げて進めますが、

clusterが組めておらず、ZEUS以外のサービスも立ち上がってきません。

本来であれば(資料を見てる限り?)clusterが組めれば、そのまま9440ポートでアクセスできるような流れになっている気がしておりますが、そこまで行けない状態です。

また、Cluster startを入力したときに、Waiting on x.x.x.x (Up, ZeusLeader) to start:の文言がずーっと出続けている状態です。

 

何かヒントをいただければ幸いです。よろしくお願いいたします

@STier 、@その他知見のある方

現在、社内のサーバにNutanix CEをiLO経由(iLOのコンソール画面でCD/DVDをマウントできるので、そこからローカルにあるNutanix CEのISOファイルをマウント)で取り込み、起動を行っておりますが、途中で止まってしまいます。

 

止まってしまう箇所は下記となります。

INFO Getting AOS Version from /mnt/iso/images/svm/nutanix_installer_package.tar.p00, This may take a few minites if Phoenix is running from BMC

 

BMC経由だと数分間時間がかかるとメッセージには出ておりますが、2時間以上経過してもこのままです。解決策をご教授していただきたいです。

 

備考:現在、このサーバには商用版のAOS 5.x(ライセンスは既に切れているので未使用)が入っているので、一度このクラスタを削除する必要があるのかなと思っております。

 

こちら、解決しました。

私も類似したトラブルでインストールが行えておりません。実施した解決策をご教示いただけますでしょうか。

Dell サーバにiDrac経由で仮想メディアをマウントしてインストールしているのですが、以下のエラーでinstallが終了している状況です。

INFO Getting AOS Version from /mnt/iso/images/svm/nutanix_installer_package.tar.p00, This may take a few minites if Phoenix is running from BMC

cat: /mnt/iso/images/svm/nutanix_installer_package.tar.p00: Input/output error

cat: /mnt/iso/images/svm/nutanix_installer_package.tar.p01: Input/output error

 

/root/phoenix/images.py の123行目で以下を実行したタイミングでのエラーかと推測しております。

shell.shell_cmd([combine_command], ttyout=True)

# ここで実行している combine_command = cat /mnt/iso/images/svm/nutanix_installer_package.tar.p0* > /mnt/svm_installer/nos.tar

 

試しに、上記のコマンドをssh後にホスト上で実行してみる、同様のエラーとなりました。

# cat /mnt/iso/images/svm/nutanix_installer_package.tar.p0* > /mnt/svm_installer/nos.tar cat: /mnt/iso/images/svm/nutanix_installer_package.tar.p00: Input/output error cat: /mnt/iso/images/svm/nutanix_installer_package.tar.p01: Input/output error

 

また、その際のdmesgは以下のようになっています。

# dmesg | tail [ 5117.728842] Buffer I/O error on dev sr0, logical block 1, async page read [ 5117.859332] sr 11:0:0:0: [sr0] tag#0 UNKNOWN(0x2003) Result: hostbyte=0x00 driverbyte=0x08 cmd_age=0s [ 5117.859338] sr 11:0:0:0: [sr0] tag#0 Sense Key : 0x3 [current] [ 5117.859341] sr 11:0:0:0: [sr0] tag#0 ASC=0x11 ASCQ=0x0 [ 5117.859345] sr 11:0:0:0: [sr0] tag#0 CDB: opcode=0x28 28 00 00 00 00 00 00 00 02 00 [ 5117.859348] blk_update_request: critical medium error, dev sr0, sector 0 op 0x0:(READ) flags 0x0 phys_seg 2 prio class 0 [ 5117.859351] Buffer I/O error on dev sr0, logical block 0, async page read [ 5117.859354] Buffer I/O error on dev sr0, logical block 1, async page read [ 5128.216320] VFS: busy inodes on changed media sr0

 

以上、よろしくお願いいたします。

Reply