Topics started by TetsuoMiyoshi

158 Topics

Nutanix Prism Pro と 新機能 X-Play

code:今回の記事はシニアシステムズエンジニアの山下 富雄の記事です。山下は.NEXT JapanでPrism Proのセッションを担当します。新機能X-Playが加わったこれまでにはない自動化された運用を知りたい方、必見のセッションです。お申込みはこちらから。https://www.nutanix.jp/invisible/招待コードは「NTX049」にてお申し込みください。NTX-05 12:55-13:35システム運用をもっと楽に!Prism Proを使った高度なCluster管理 Nutanixが誕生して10年が経過しました。Nutanixが提唱した、インフラを簡単にする「Hyper Converged Infrastructure(HCI)」というアーキテクチャも、IT業界に広く浸透してきました。 またこの新しいインフラストラクチャを簡単に操作するための「Prism」も、ご利用いただいている多くの方々から高い評価をいただいています。 事前に特別なプログラムのインストールは不要で、WebブラウザでCluster IPへアクセスするだけでPrismへログインができ、様々なHCIの情報が確認できること、洗練されたインタフェース上で様々な操作が1-クリックで簡単に行えることなど、Prismが従来のインフラストラクチャの管理とは一線を画す理由は多く挙げられます。 Prism ElementとPrism Central さて、そんなPrismですが、みなさん存分に使い倒していますか? Prismには、Nutanixを導入すると標準で実装される「Prism Element(PE)」と、仮想アプライアンスで提供される「Prism Central(PC)」の2種類ががあります。 特にPrism Centralについては仮想アプライアンスを別途インストールする必要があることから、まだ利用いただいていない方も多いのではと思いますが、 Nutanixのソフトウェアやサービスにご興味を持っていただいた方にこそ、このPrism Centralはご利用いただきたいNutanix製品です。 Prism CentralとPrism Proライセンス Prism Centralは、大きく2つの特徴を備えています。 1.Nutanixの新しいソフトウェアやサービスの基盤 今後Nuta

Nutanixのメリットその6: ハイパーバイザーの選択肢

本記事はNutanixのTechnical Marketing EngineerのBrian Suhrが2022年9月15日に投稿した記事の翻訳版です。原文はこちら。  Nutanixはお客様に選択の自由を提供することでその評価を獲得してきました。これについては多くの例がありますが、今回の記事では、Nutanixクラウドプラットフォームのアーキテクチャがコンピュートハイパーバイザーとは独立して稼働する分散型AOSストレージスタックによってどのようにお客様にハイパーバイザーの選択肢というオプションを提供するのか、掘り下げたいと思います。ご存知のとおり、ワークロードの稼働にどのハイパーバイザーを使うのか、選ぶのは朝起きで、どのシャツを着るのか選ぶのとはまるで違います。どんなときにも着ていけるシャツ(そしてハイパーバイザーも)はありません。ワークロードとアプリケーションはそれぞれに固有の要件を抱えており、それらのワークロードを混在させることもあるため、要件に競合や重複も出てきます。VMware ESXi、Hyper-V、Nutanix自身のAHVをNutanix HCIで柔軟に稼働させる事ができることは、こうした環境において大変重要です。分散ストレージスタックと仮想化コンピュートレイヤーが異なるイノベーションによって推進されているということもまた事実です。例えば、多くのvSphere 6.7を利用しているお客様にとって、コンピュート仮想化レイヤーは十分に成熟したもので、新しい、よりコストの高いバージョンへのアップグレードは強い動機を感じるものではありません。こうしたお客様においては、ハイパーバイザーのアップグレードを行わずにアップグレードができるNutanixのストレージスタックのアップグレードの機能は選択肢と統制のもう一つの事例になります。今回の記事では、単独のハイパーバイザーを動作させることと、複数のハイパーバイザーを動作させることについて掘り下げ、ハイパーバイザーの選択肢と共に、どのような以降の選択肢があるのかと、それらの価値を示す例をいくつか取り上げたいと思います。 マルチハイパーバイザーのサポートNutanixのコントロールプレーンは利用しているハイパーバイザーに関わらず、一貫性を保っています。これはつまり、クラスタ、レプリケーション、運用、更にその他のNuta

Nutanix Clusters: マルチクラウド時代のハイブリッドクラウドインフラストラクチャ NutanixはAmazon Web Services上でも利用可能に

本記事は2020年8月10日に Vidhi Taneja氏 と Sahil M Bansal氏が投稿した記事の翻訳版です。原文はこちら。今日のデジタルイノベーションの時代においてはこの数ヶ月のこれまでよりも多くことががリモートワークで行われているということと、ITチームは彼ら自身も完全にリモートで働きながら、ビジネスニーズをサポートするためにより迅速なイノベーションにフォーカスするということが同時に行われています。ITにおける課題である集中的なコントロールを維持しながら、迅速に展開を行うということを実現するため、AWS、Azure、GCP、その他のようなパブリッククラウドの採用が増加しています。ITチームは自身のオンプレミスの環境とそのスキルセットを自身が選択したパブリッククラウドへと拡張、パブリッククラウドサービスの恩恵を享受しつつ、統合インフラストラクチャ管理機構を維持するという必要性に迫られています。こうしたソリューションは単なるよくあるハイブリッドソリューションまたはマルチクラウドソリューションではありえません。それは完全なハイブリッド&マルチクラウドソリューションでなければならないのです。Nutanix Clustersはシームレスなハイブリッドクラウド環境を実現する最新の製品で、パブリッククラウドとネイティブに統合されています。クラウドネイティブサービスとのダイレクトな低遅延なアクセスを提供し、さらに想定通りのNutanixのしなやかさ、効率性、パフォーマンスを備えています。ソリューションはデータセンターのキャパシティをパブリッククラウドの自在性を利用して迅速に拡張することに特化しており、プライベートクラウドとパブリッククラウドにまたがって同じスキルとツールを活用し、運用効率を最大化する事ができます。ハイブリッドとマルチクラウド時代のためのNutanixクラウドプラットフォームNutanix Clustersはオンプレミスとパブリッククラウド環境の間で一貫したエクスペリエンスを提供できるようにデザインされています。これらの環境間をリスク、コスト、アプリケーションのリファクタにかかる時間なく移動させることが出来、その下のクラウドへのあらゆるロックインからの自由を完全に成し遂げることが出来ます。Nutanix Clustersの機能とメリットNuta

読み取りI/Oパスの比較 - Nutanix vs VMware vSAN

本記事は2020年3月2日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 本シリーズではこれまでにNutanixでは重複排除や圧縮はもちろんのこと、イレイジャーコーディングを利用した場合であったとしても、より高い容量効率、柔軟性、回復力、そして性能をより多くの利用可能な容量とともに、ご提供できることを学んできました。 更に、Nutanixは遥かに簡単に優れたストレージの拡張性を提供でき、ドライブ障害の影響を劇的に低減できることも学んできました。 そこから我々はギアを変え、混在クラスタのサポートについて取り上げ、これがなぜHCIプラットフォームの拡張能力、そして完全な置き換えや新たなサイロを作ることなくより強力なROIを実現に重要であるかを学びました。 前回は、書き込みI/Oパスの比較について学習し、クラスタ内のVMの現在の場所とパフォーマンス/容量の使用率に基づいた、データをインテリジェントに配置するNutanix独自のデータローカリティの多くの長所を取り上げました。 今回は、vSANとNutanix ADSFの読み込みI/Oパスの比較について詳しく説明します。 vSAN読み取りI/O パス:書き込みI/Oパスの比較で学んだように、vSAN I/O パスの最良のシナリオは、VMが作成されたホストから移動していないか、偶然にもオブジェクトが存在するホストにVMが存在する場合です。その場合、ローカルのデータオブジェクトと、回復力のために別のホストにリモートなデータオブジェクトを持つことになり、IOパスは最適になります。 シナリオ1: vSANvSANの最適な読み取りI/Oパス ローカルにホストされたオブジェクトを利用ここでは、すべてのデータがローカルでホストされているため、100%の読み取りをローカルで提供できるように見えます。 しかし、vSANはこのような動作はしません。vSANの読み取りは、すべてのオブジェクトに対する「ラウンドロビン」方式で実行されます。つまり、オブジェクトがVMにローカルであるという最良のシナリオでも、FTT1の場合で読み取りの50%、FTT2の場合は読み取りの66%がリモートから提供されるのです。 シナリオ2: vSANシナリオ1でVMをノード2にvMotionしてみましょう。vSANの 最適な読

HCI プラットフォーム の可用性、 回復力、整合性 X-Ray のシナリオがGAしました!

 本記事は2021年3月5日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの牽引はこちら。 私はしばらくの間、社内のエンジニアリング/QAだけでなく、お客様がNutanixのより詳細な機能を迅速/容易にかつ反復してテストできるように、新しいX-Rayシナリオの構築に取り組んできました。 HCIプラットフォームの可用性、回復力、そして整合性シリーズでは、Nutanix AOSとVMware vSANの両方でテストがどのように機能するかを詳細に説明しており、AOSがvSANに対して大きな優位性を持ち、最小3ノードの構成で障害が発生しても常にデータの整合性(可用性と回復力の両方)を維持できることを強調しています。 一方、vSANは、より高いI/Oタイムアウト、より大きなクラスター、3つのデータコピー(FTT2)でもI/Oエラーが発生します。 しかし、私の言葉を鵜呑みにせず、ご自身でもテストを行ってみてください。 Nutanix ポータル から X-Rayバージョン3.10.2の、vSphere用のOVAまたはAHV用のQCOWイメージをダウンロードし、テストを行う予定のクラスターとは別のクラスターにデプロイするだけです。 その後、WebブラウザでX-Ray VMのIPアドレスに移動し、「ターゲット」クラスターを設定し、検証を実行して、すべての帯域外管理と認証情報が機能していることを確認すれば、準備完了です。  デフォルトのオプションでは、メンテナンスモード、再起動、および10%の稼働率でのノード障害のシミュレーションを含む、プラットフォーム全体の回復力テストを実行します。 このテストでは、クラスター内の1つのノードを除くすべてのノードに1つの仮想マシンをデプロイすることで、クラスター内のノード数に応じて自動的にスケールします。これにより、適切なサイズの実環境であるN+1をシミュレートするとともに、各ノードのフラッシュドライブ数に基づいて目標I/Oレベルを調整します。 フラッシュデバイスの数に基づいてI/Oレベルを調整することで、現実的ではない、あるいは人為的に高いエラー数につながる、小規模ノードやクラスターへの単純な過負荷を避けることができます。 このテストの目的は何でしょうか? 簡単に言えば、もしもHCIプラットフォームが、VMの可用性に

Nutanixのメリット その3: パフォーマンスとキャパシティのためのシームレスなクラスタ管理

本記事はNutanixのSenior Technical Marketing EngineerのBhavik Desaiが2022年8月18日に投稿した記事の翻訳版です。原文はこちら。  このシリーズのこれまでの2つの記事では、Nutanix AOSが自動化されたアプリケーションを意識したデータ管理を実現する、動的な分散されたストレージをどのように提供しているのか、ということについて掘り下げてきました。今回の記事では、これらの2つの機能が、管理者がクラスタに更に物理ノードを追加して拡張をしなければならない場合に、どのように強力なメリットをもたらすのかについて見ていきましょう。 パフォーマンスとキャパシティのためのクラスタ管理展開が終われば、インフラストラクチャーとアプリケーションの日々の運用が重要になります。Nutanix AOSは管理者の行うライフサイクル管理を簡単かつシームレスなものにします。すべての管理者が行わなければならない重要なタスクの一つにストレージもしくはパフォーマンスのためのインフラストラクチャーの拡張があります。管理者は通常、最初は均一なクラスタを展開することから始めることになりますが、アプリケーションが成長するにつれて、よく発生するユースケースがクラスタへのさらなるキャパシティの追加です。管理者は多くのストレージキャパシティを持つノードや、アプリケーション仮想マシンを動作させないストレージオンリーノードを含む様々なタイプのノードを追加するという選択肢があります。AOSはこの部分をその動的なクラウドアーキテクチャーで劇的にシンプルにすることができます。一度ノードが追加されると、アプリケーションは他のHCIシステムのように何らかの介入を必要とすることなく、即座にその追加されたリソースを活用することができます。これはAOSが書き込みを行うデータが最適なサイズであることと、動的に自律化されたWriteを行うことで可能となっています。AOSは自動的に新たなリソースを利用し始め、マニュアルでの介入を行うことなく、書き込みのコピーデータは新しいノードへと送信されます。それに加えて、AOS内のCuratorフレームワークがディスクのリバランスをバックグラウンドオペレーションとして開始させ、自動的にクラスタのバランスを調整します。以下の例で大容量のノードをクラスタ

1-クリックの進化...

本記事はPrincipal Product ManagerのCameron Stockwellが2019年6月7日に投稿した記事の翻訳版です。 原文はこちら。 数週間前のアナハイムでの.NEXTカンファレンスのキーの戸で、Dheerajは大きくなった我々のポートフォリオとともに、アップグレード管理についての課題についてハイライトし、それでも我々は運用をシンプルに維持し続ける苦労について述べました。 「我々は5,6年前は2つのものをアップグレードしていればよかったのです - AOSとPrism - これは成長におけるパラドックスです -- 成長は複雑さを生み出します。そして複雑さは成長を殺していまいます。」 「アップグレードについて一般的には、30分程度しかかかっていなかったアップグレードが大規模なクラスタを持つお客様にとっては4〜5時間もの時間を要するようになってきている。 しかし、これは非常に大きな責任が伴う。すべてのサーバ、ファームウェア、ハイパーバイザー、全てについて考慮しながら、なおもダウンタイムを伴わずに実行しなくてはならない。」 「このカンファレンスは皆様が言う「最も複雑なことを素晴らしくやってのけるとはどういうことか?」ということに対するものになっています。もはや我々のキャンバスは5年前にそうであったようにシンプルなものでは、もはやなくなっているからです。 我々のキャンバスはより複雑なものになっており、そして、Nutanixに課せられたバーはこれまでと同じような素晴らしさを既存のお客様、そしてこうした複雑さを実際には見ることのない新しい我々のお客様に対してご提供するというものになっています。ですが、我々はそれに取り組み、5年前よりも10倍も高速に進まなければなりません。-- これがこのカンファレンスのあるべき姿です。」 ビデオを46:57から見始めていただくと1-クリックアップグレードの話が始まります。 1-クリックの画板へと戻る2016年の初頭には、我々がポートフォリオを拡充しながら同時にシンプルな1-クリックアップグレードの約束を守り続けるためには新たな方法が必要であるということは明らかでした。これまでの実績を持つデザイン ー アップグレードのためのコードとロジックをAOSに組み込んでおくというもの ーは継続できないということが徐々に

Postgresでのベンチマーク パート1

本記事は2019年6月28日にGary Little氏が投稿した記事の翻訳版です。原文はこちら。Image By Daniel Lundin この例では、Postgresとpgbenchワークロードジェネレータを用いて、仮想マシンに対して負荷をかけます。PostgresがインストールされたLinux仮想マシンを利用しますが、特にBitnami仮想アプライアンスを使います。VMが起動したらコンソールに接続します Postgres DBポートであるpostgresポート5432へアクセス許可するか sshを許可します $ sudo ufw allow 5432 postgresユーザーのパスワードを確認してください (cat ./bitnami_credentials) コンソールかSSHよりpsqlへログインします $ psql -U postgres オプションとしてパスワードを変更できます (プロンプト表示はpostgresデータベースユーザーのbitnami_credentialsからのパスワードです). $ psql -U postgrespostgres=# alter user postgres with password 'NEW_PASSWORD';postgresl=# \q pgbenchワークロードを実行するDBを作成します。この場合dbを“Scale Factor 10”でテストするためpgbench-sf10と名付けます。Scale Factorとはデータベースのサイズを定義する方法です。 $ sudo -u postgres createdb pgbench-sf10 ベンチマークを実行する準備ができているDBを初期化します。“createdb” ステップは空のスキーマを作成します。 -i は “initialize” を意味しています -s は “scale factor” を示し、例えば10など指定します pgbench-sf10 は利用するデータベーススキーマです。先程作ったpgbench-sf10を使います。  $ sudo -u postgres pgbench -i -s 10 pgbench-sf10 pgbench-sf10というDBスキーマに対してワークロードを実行します。 $ sudo -u postgres pgb

ChakrDB:クラウド上に誕生した分散型RocksDB、その1

 本記事はAnoop Jawahar氏 および Sandeep Madanala氏が 2021年10月4日に投稿した記事の翻訳版です。原文はこちら。  歴史、背景、動機Nutanixクラウドオペレーティングシステムは、Webスケール、スケールアウトな設計を通じて、高可用性、レジリエンス、障害無害化能力とともに、包括的なストレージとコンピュートの仮想化を提供し、オンプレミスのデータセンターでパブリッククラウドのエクスペリエンスを、提供しています。当社のソフトウェアの基盤となる2つの主な技術は、Nutanixの分散ストレージと、コンピュート管理のためのKubernetesベースのマイクロサービス・プラットフォーム(MSP)です。あらゆるパブリッククラウドサービスで同じようなテクノロジーを利用することができます。例えば、ストレージであればAmazon Web Services(AWS)のElastic Block Store(EBS)やAzureのマネージドディスク、コンテナのオーケストレーションであればAWS Elastic Kubernetes Service(EKS)、Azure Kubernetes Service(AKS)、Google Kubernetes Engine(GKE)などが挙げられます。 今日の分散型データベースやデータサービスは、こうしたクラウドインフラストラクチャーの構造を活用することで、より軽量で先進的なものになります。また、モダンなデータアプリケーションは、あらゆるパブリッククラウドやプライベートクラウドで実行できるように、一定の原則に従う必要があります。アプリケーションをクラウド対応にするには、通常、オープンソースのAPI標準へ準拠したり、標準化されたiSCSIストレージをエンドポイントとしたり、インフラストラクチャ運用管理用のKubernetes(K8s)のようなオープンコンテナオーケストレーションフレームワークが必要です。 Nutanix ObjectsチームがChakrDBとの協業を開始したとき、Nutanixの開発チームは当社のクラウドOS上のストレージサービスを作成していました。Nutanix Objectsは、非構造化データ向けのS3準拠のハイブリッドクラウドストレージで、クラウドの構造を活用できるよう構成されています。クラウ

CPU利用の比較 – Nutanix AOS vs VMware vSAN / DellEMC VxRAIL

本記事は2020年3月2日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 このシリーズでは、NutanixプラットフォームがvSAN/VxRAILよりも多くの使用可能な容量を提供することで、物理ストレージをより効率的に利用できることをすでに学んできました。 また、Nutanixのアーキテクチャは、ドライブやノードの障害をより安全に処理し、復旧までの平均時間を大幅に短縮することができるなど、多くの利点があることを学びました。 Nutanixの容量拡張や性能向上を即座に改善する独自能力は、Day2 Operations(運用フェーズ)をはるかに単純化し、価値を生み出すまでの時間を短縮することにもつながります。 また、Nutanix Controller VM (CVM)は、基本的なストレージ層のみしか提供しないvSANカーネルモジュールよりも価値が高いことがわかりました。Nutanix CVMは、より高度な、回復力があり、スケーラブルで、パフォーマンスの高い分散型ストレージファブリックを提供するだけでなく、データ保護/レプリケーションなどの機能も提供し、利用性の高い管理スイート(PRISM Element)も提供します。 CVMは、より多くの価値を提供しているにもかかわらず、メモリ使用量の比較記事では、Nutanix CVMのメモリ使用量はvSAN/VxRAILと同等かそれ以下であることが多いということがわかりました。 さらに、vSAN/VxRAILが「インカーネル」で実行されていることがリソース使用量の面で大きな利点になるという神話を払拭するために、CPU使用量の例をいくつか見てみましょう。 注: VMwareのEULAでは、IOPS/スループットのパフォーマンス数値を共有することができませんが、すべての比較において、プラットフォームの差の割合を示しています。これにより、提供されるパフォーマンスが異なる場合でも、CPU使用率を正確に比較することができます。 次のチャートは、Nutanix X-Rayツールを使用して、「Four Corners」と「Throughput Scalability」のシナリオを使用して作成したものです。 例1 - ランダムリードのCPU使用率 このテストでは、IOPSの結果は両プラットフォーム

Contrail SDNコントローラーを統合し、AHVクラスタ内のオーバーレイネットワークを管理

本記事は2020年7月20日にNutanixのEnterprise ArchitectであるAmin Aflatoonianが .NEXTコミュニティに寄稿した記事の翻訳版です。 原文はこちら。    Juniper Contrailはテレコム・クラウド業界で幅広く様々なユースケースで展開されているソフトウェア定義のネットワーク機能(SDN)コントローラーです。最近NutanixとJuniperはNutanixのネイティブなハイパーバイザー である AHV上での展開が検証済みであるということをアナウンスしました。 この記事では、この2つのテクノロジーをアーキテクチャの面から見ていき、どのように統合が行われているか解説していきます。 アーキテクチャ このセクションではContrailとAHV製品の両方のアーキテクチャの概略を見ていき、これら2つの製品がどのように結合して付加価値サービスを提供するのかをお見せしていきます。これらの製品について更に詳しく学びたい場合にはNutanixとJuniperのオフィシャルウェブサイトをご確認ください。 Juniper Contrail Contrailはオーバーレイネットワークを物理、そして仮想インフラストラクチャ上に作成・管理するSDNコントローラーです。 Contrailは主に2つのコンポーネントから構成されています: Contrail vRouter: ハイパーバイザー上で稼働し、仮想マシンに対してネットワーク機能を提供する分散ルーター Contrail Controller: 複数のvRouterの統制、管理、オーケストレーション、分析を提供する論理的な集中コントロールプレーン 図 1 Contrail アーキテクチャContrailの最も高いレベルでは、そのノースバウンドインターフェイス(NBI)経由でコントローラーはハイレベルなネットワーク構成(仮想ネットワーク、vNIC、ルーティング、ポリシーなど)を受け取り、それに合わせてvRouterのルーティングテーブルをプログラムします。こうした指示をvRouterに送信するためにコントローラーはXMPPプロトコルを利用しています。 データプレーンのレベルでは、vRouterが仮想マシンに接続されたインターフェイス(vNIC)からトラフィックを受信した

重複排除と圧縮の比較 - Nutanix ADSF vs VMware vSAN

本記事は2020年2月3日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 最近の記事で、同じハードウェア上のNutanix ADSFとVMware vSANの実際の使用可能容量を比較したところ、Nutanixの方が約30~40%も多くの使用可能容量を提供していることがわかりました。そうすると次の自然なステップは、使用可能容量にさらなるストレージ容量の効率性をもたらすデータ削減/効率化技術を比較することです。 前の記事では、使用可能容量の比較を単純化するために、2つの製品の機能差を「チャラ」にすると宣言しました。しかし、現実にはチャラにはなりません。Nutanixプラットフォームは、同じハードウェアであってもより多くの使用可能容量を提供する能力を保持しているからです。Acropolis Distributed Storage Fabric (ADSF)の優れたストレージ階層化に加え、データ削減技術を組み合わせたとしたら、vSANは銃撃戦にスプーンを持ってきたようなものです。 この記事では重複排除と圧縮について見ていきます。圧縮、重複排除などのデータ削減技術は、データセットに応じて顧客にさまざまなレベルの価値を提供する実績のある技術です。マーケティング資料などで、これらの機能が比較される際、多くの場合、ベンダーの営業担当者による"チェックボックス"スタイルのスライドが、利用されています。さらに悪いことに、こうしたスライドは殆どの場合、額面通りに(訳注:単に機能の有無しか表していないにも関わらず全く同等であるかの如く)受け取られてしまうため、容量、回復力、パフォーマンスなどの決定的なアーキテクチャ上/サイジング上の考慮事項について誤った想定をしてしまう可能性があります。これは、私が2014年に書いた記事のことを思い出させます:Not all VAAI-NAS storage solutions are created equal(すべてのVAAI-NASストレージソリューションは同じように作成されていない)と題して、私は複数のベンダーがvSphere用のVAAI-NASのサポートを表明しているにも関わらず、必ずしもすべてのベンダーがVAAI-NASの提供する、付加価値となる機能、容量の効率性、そして不必要なIO処理を回避する

パブリッククラウドの課題 – パート5:ストレージデバイス障害と回復力への影響

本記事はJosh Odgers氏が2020年8月18日投稿した記事の翻訳版です。原文はコチラ、本シリーズの索引はコチラです。 パート1では、AWSでVMwareのVMC製品を使用する場合、VMwareやその顧客はネットワーク帯域幅を制御できないという、VMCのコアアーキテクチャーが及ぼす重大な影響について紹介しました。パート1をお読みいただいていない場合は、この投稿を読み進める前に目を通していただくことをおすすめします。パート1で紹介している概念は、この投稿のテーマである「デバイス障害と回復力への影響」について理解を深めていただくために重要です。パート2、パート3、およびパート4では、AOSの機能のおかげで、Nutanix ClustersではVMCよりも高いフロントエンドパフォーマンスを発揮しながら、使用可能な容量も多くなるということについて紹介しました。また、パート4では、VMC(vSAN)で圧縮と重複解除を使用すると、ドライブ障害のリスクや影響が大きくなるのに対して、Nutanix Clustersでは、このようなデータ効率テクノロジーを使用するかどうかに関係なく、回復力への影響がないことを紹介しました。このようにNutanix ClustersはVMC/vSANに対して優位性がありますが、プラットフォームが障害に対して高い回復力を備えていなければ意味がありません。この投稿では、AWS i3.metalインスタンスを使用する場合に、Nutanix ClustersとVMware VMCがさまざまなドライブ障害シナリオをどのように対処し、どのように回復するのかについて紹介します。AWS EC2 i3.metalインスタンスなどのパブリッククラウドサービスを使用する際、NVMeフラッシュデバイスは耐久性が高くないと考えられるため、VMC/vSANなどの製品がディスクグループごとに単一キャッシュドライブに大きく依存する場合は、Drive Writes Per Day(DWPD:1日当たりのドライブ書き込み数)の指標が適切でない可能性がある、ということを考慮することが重要です。VMwareは記事「Understanding vSAN Architecture: Disk Groups」の中で、キャッシュドライブに関して以下のように述べています。高耐久性フラッシュデバイ

NutanixとHPEはクラウドのシンプルさをオンプレミスへ提供するためにチームを結成協業

本記事は2019年10月9日にBrian Coxが投稿した記事の翻訳版です。原文はこちら。 2019年10月9日、HPEとNutanixはHPE GreenLake with Nutanixの提供開始をアナウンスしました。HPE GreenLakeはオンデマンドのキャパシティとプランニングを提供するインフラストラクチャサービスです。HPE GreenLakeの顧客は自身のアプリケーションが動作しているインフラストラクチャの展開と運用をサービスとして利用し、Nutanix Enterprise Cloudの1-クリックのシンプルさと高い拡張性を享受することができます。この新しいインフラストラクチャの利用モデルのアナウンスはデンマークのコペンハーゲンで開催されるNutanix .NEXT Europeユーザーカンファレンスでも取り上げられます。 NutanixのChief Marketing OfficerであるBen Gibsonは以下のように述べています。「HPE GreenLakeはHPEが提供するサービスの中で最も早く成長しているサービスの一つで、Nutanixがその一部になれることを大変喜ばしく思います。我々はお客様にさらなる選択肢を提供できることを嬉しく思います。Nutanix Enterprise CloudをGreenLakeのポートフォリオに加え、IT部門がビジネス部門へと迅速にサービスを提供する方法をシンプル化するまた一つ新しい方法を提供することができるのです。」HPE GreenLake Flex Capacity プログラムはHPEから提供される利用ベースでのITモデルですでに広く利用されており、お客様のIT運用をシフトさせます。pay-as-you-goのインフラストラクチャをキャパシティオンデマンドで提供し、パブリッククラウドの俊敏性と経済性をオンプレミスのセキュリティとパフォーマンスを融合させて提供します。HPE GreenLake with Nutanixは仮想マシンに割り当てられた仮想メモリのGiBの総量でその従量を計測しています。一ヶ月の平均的な利用が計算され、月ごとに請求が行われます。お客様はHPEシステムとNutanixソフトウェアをオンサイトもしくはお客様のコロケーションファシリティで提供を受けますが、先行投資コストは一切ありま

ソフトウェア・ディファインド・ストレージのビジネス効果

ソフトウェア・ディファインド・ストレージはIT部門へ柔軟性、拡張性、そしてコスト削減をもたらすことができます。 本記事はMichael Brenner氏が 2023年5月30日にForecast by Nutanixに投稿した記事の翻訳版です。  データはあらゆる場所にあります。ビジネスによってデータは様々な場所、オンプレミスやリモートのデータセンター、そしてパブリッククラウドへと分散されていきます。データを安全に、そしてアクセス可能にしておくためには継続的な取り組みが必要で、大抵の場合、より多くのスペースが必要となります。ソフトウェアの手助けを借りる必要がある場面が大きく拡大し続けています。ソフトウェア・ディファインド・ストレージ(SDS)はストレージソフトウェアをあらゆる物理的なハードウェア部分と切り離す手法で、ネットワークのサイズに関わらず、大容量のデータを効率的に管理し、俊敏性を手にすることができるようになります。SDSを利用することの主な効果はビジネス部門の運営に合わせて効率的に拡張できるようになることと、コストを削減することです。 まとめ:SDSは組織のハードウェアをどのように使うかの柔軟性を実現することができます。 負担が小さく、素早い対応によってSDSはIT担当者と利用者にとって便利なストレージソリューションとなっています。 自動化、最適化、そしてプロプライエタリからの開放の全てがSDSを利用するビジネス部門にとっての削減となります。 ハードウェアからソフトウェアを分離することで、組織のストレージのプラクティスに従って社内、社外のいずれでも、ほぼ無制限の拡張性を実現することができます。SDSの効果を理解することで、このテクノロジーに対する投資が組織にとって非常に理にかなったものであるということを明瞭に理解することができます。  ソフトウェア・ディファインド・ストレージはどのように動作するのか?ソフトウェア・ディファインド・ストレージの背景にあるコア・コンセプトは抽象化です。物理的なハードウェアに依存すること無く、データを補完するという考え方は受け入れがたいものかもしれませんが、同様の抽象化は、一箇所のハードウェアのリソースをソフトウェアが引き出し、ホストサーバーとは分離された多くの仮想マシンを作成するという仮想化において一般的な考え方になっています。

Nutanixのメリット その9: 完全な統合ストレージ

本記事はNutanixのTechnical Marketing Engineer – NC2, NUS, NDBのMike McGheeが2022年10月6日に投稿した記事の翻訳版です。原文はこちら。   Nutanixをハイパーコンバージドインフラストラクチャ-(HCI)と同義と考える方もいることでしょう。これは我々が別途ストレージ装置とストレージエリアネットワーク(SAN)、サーバー、仮想化が必要な構造のレガシーなソリューションを(HCIへと)置き換えてきたからです。しかし、Nutanixが完全な統合ストレージソリューションをご提供していることをご存知でしたか? 我々のストレージ・ソリューションには同じ分散プラットフォームを利用するiSCSIベースのブロックサービス、SMBとNFSのファイル共有、そしてS3互換のオブジェクト機能が含まれています。Nutanixはシンプルさ、柔軟さ、そしてビルトインされたデータに対するセキュリティをご提供するソフトウェア・ディファインドのエンタープレイズグレードの統合ストレージをご提供できる唯一のHCIソリューションです。 Nutanixユニファイドストレージ(NUS)とは?Nutanixユニファイドストレージ(NUS)  には以下の3つのコアサービスが含まれています: ファイルサービスNutanixのファイルサービスは、アプリケーションとユーザーによって生成される拡大し続ける非構造化データの保存、管理、拡張に対するシンプルかつセキュアなスケールアウトソリューションを提供します。一般的なユースケースにはVDI向けのホームもしくはプロファイルディレクトリ、監視ビデオやメディカルイメージまでもが含まれます。ファイルサービスはSMB 2, SMB 3, NFS v3, NFS v4の堅牢なプロトコルのサポートおよびマルチプロトコルのサポートを含む、完全な機能セットを提供します。シェアに対してのユーザークオータの適応や、WORMポリシーの設定、クラウドへのデータの階層化、そして災害復旧(DR)のためのシェアのネイティブなレプリケーションが利用できます。 オブジェクトサービスオブジェクトサービスはセキュアなS3互換オブジェクトストアを提供します。オブジェクトサービスはモダンなクラウドネイティブおよびビッグデータ分析ワークロード向けの高いパフ

Nutanix上でのデータベースの圧縮

本記事は2019年2月17日にGary Little氏が投稿した記事の翻訳版です。原文はこちら。 圧縮の有効性Nutanixクラスタ内で標準の圧縮を利用してデータベースを稼働させた場合にはどれほどの容量削減が期待できるでしょうか? TPCx-HCIベンチマークを稼働させた際には圧縮のみで、おおよそ2:1の削減を実現することができました。TPCx-HCIベンチマークはデータベース統合の構成をシミュレーションすることができます、つまり、ホストあたり多くのデータベースがあることになります。圧縮をしない場合のデータのサイズは45TBほどでした。 圧縮+暗号化加えて、データの保存時暗号化(Data at rest encryption - DARE)を有効にしました。クラスタの機能を利用して、圧縮と暗号化の両方を実現することができます。(まず圧縮を行い、その後暗号化)もしもデータベースエンジン自体が暗号化を行う場合、それによって圧縮の効果は小さくなります。  データの生成ZFSと同様に、Nutanixのファイルシステムは LZ4 圧縮を利用し、現実的なデータセットに対してインラインで2:1程度の容量削減の期待値です。TPCx-HCIベンチマークではE-Genデータ生成ツールを利用し、データベースを作成しました。E-GenはTPC-E ベンチマーク向けに作成されたツールで、機械が生成する文字列ではなく、国勢調査データとNYSEの株価リストなどの汎用的なリアルデータをもとにデータを生成します。 TPCx-HCI Data 

Nutanixの回復力 - パート 6 - CVMのメンテナンスや障害時のWrite I/Oについて

 本記事は2018年6月8日に Josh Odgers 氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの牽引はこちら。 パート5では、CVMのメンテナンスや障害時のI/Oの処理方法について説明しましたが、今度は同じメンテナンスや障害シナリオでWrite I/Oを処理するという、間違いなくより困難で重要なタスクを説明する必要があります。パート5をお読みになった方であれば、この次のセクションがよくわかると思います。パート5を読んでいない方は、ぜひ読んでいただきたいのですが、ここではNutanix ADSFがどのようにデータを書き込み、保護するのかという基本的なことを簡単に説明します。 以下の図を見ると、3ノードのクラスターに1台の仮想マシンがあります。仮想マシンはa,b,c,dで表されるデータを書き込んでいます。通常の状況では、すべての書き込みは、1つのレプリカが仮想マシンを実行しているホスト(この場合はノード1)に書き込まれ、他のレプリカ(RF3の場合は1つまたは複数)はディスク適合性の値に基づいてクラスター全体に分配されます。ディスクの適合性の値(私は「インテリジェント・レプリカ・プレースメント」と呼んでいます)は、容量とパフォーマンスに基づいて、データが最初から最適な場所に配置されることを保証します。  クラスターに1つ以上のノードが追加された場合、インテリジェント・レプリカ・プレースメントは、クラスターがバランスの取れた状態になるまで、それらのノード数に比例して多くのレプリカを(分散して)送信します。万が一、新たな書き込みが発生しなかった場合でも、ADSFにはバックグラウンドでディスクバランスをとるプロセスがあり、低い優先度でクラスター内のバランスをとります。 Nutanixが複数のレプリカを使用してデータを保護する方法(「レジリエンシーファクター(RF)」と呼ばれるもの)の基本がわかったところで、Nutanix ADSFストレージ層のアップグレード時に何が起こるかについて説明します。 アップグレードはワンクリックで開始され、設定されたレジリエンシーファクター(RF)やイレイジャーコーディング (EC-X) の使用の有無に関わらず、一度に1つのコントローラVM (CVM)をローリング方式で実行します。ローリングアップグレードでは、一度に1つのCVMをオフ

NutanixとMicrosoft Azureによるハイブリッドクラウドインフラストラクチャ

本記事は2021年9月21日にSahil M Bansal氏とVidhi Taneja氏が投稿した記事の翻訳版です。原文はこちら。.NEXT 2021に関する記事の索引はこちら。 NutanixはMicrosoftとコラボレーションし、より素早く、シンプルで、コスト効率性の高いクラウドへの道筋をご提供します。 近年、そしてこの18ヶ月は特に顕著になってきましたが、ITチームは常に進化し続けるビジネスニーズの真ん中で、増加し続けるハイブリッドなワークプレースをサポートするために、より俊敏にならなければならないというプレッシャーに晒されてきました。多くのビジネス部門では数年分にも値するデジタルトランスフォーメーションの活動を削減された予算の中で運用を行い、短時間に詰め込んできました。プライベートとパブリッククラウドベンダーの両方がそれぞれのお客さまのニーズ、それは多くの場合でオンプレミスとクラウドをミックスさせたインフラストラクチャ上で、ワークロードを稼働させる、つまりはワークロードとビジネスのニーズにより良く答えるための取り組みを行っています。 ハイブリッドクラウドアーキテクチャのアイディアは少し前から存在していましたが、そこにはいくつかのハイブリッドクラウドプラットフォームの急激な採用を阻む課題がありました。オンプレミスのデータセンターとパブリッククラウドの間の複雑なネットワークの管理は長きにわたる障害で有り続け、また、レガシーなアプリケーションをクラウド向けにリアーキテクトすることは時間のかかる作業でコストも高く付きます。もう一つの課題はそれぞれのクラウドのための複数の異なる管理ツールを使うことによって生じるサイロによる非効率性です。 これらの課題を解決し、お客様のITニーズを次なるレベルへとパワーアップさせるため、Nutanixはマイクロソフトとハイブリッドクラウドソリューションにおいて協業し、クラウドとオンプレミスの間の境界を融合させ、完全なハイブリッドクラウドエクスペリエンスをご提供します。 プレビュー開始: Nutanix Clusters on Microsoft Azure Nutanix Clusterson Microsoft Azure を限定的なプレビューとしてアナウンスできることを大変喜ばしく思います! NutanixはMicrosoftと従

異なるモデルでのクラスタサポート - Nutanix vs VMware vSAN

本記事は2020年2月26日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 このシリーズでは、重複排除と圧縮、およびイレージャーコーディングを使用する際に、Nutanixがより多くの使用可能な容量を提供するとともに、より大きな容量効率、柔軟性、回復力、およびパフォーマンスを提供することを学びました。また、Nutanixははるかに簡単で優れたストレージのスケーラビリティを提供し、ドライブの障害による影響を大幅に軽減していることも知りました。このパートでは、異なるモデルで構成するクラスタのサポートについて説明します。これは、HCIプラットフォームの拡張機能にとって非常に重要であり、絶えず変化するユーザーの要件を満たす/それ以上を提供するということを学んでいきます。ハードウェアのキャパシティ/パフォーマンスは非常に速いペースで進歩し続けており、ユーザーが一様な(同一スペックのノードによる)クラスタを使用することを余儀なくされた場合、TCOは上がり、投資の回収に多くの時間を必要とする可能性があります。これだけでも好ましくない事態ですが、それだけでなく、ユーザーが非効率的なサイロを作らなければ、新しいハードウェアの性能や集約のメリットを活かせなくなることを意味します。つまるところ、古いSAN時代のように、ハードウェアを「総入れ替え」する必要があるような状況にはなりたくありません。それでは、簡単な「チェックボックスの比較」から始めてみましょう。 サポートされているクラスタのノード構成 Nutanix VMware vSAN Heterogeneous(異なるモデルノード混在構成) Homogeneous(同一モデルノードのみの構成) 以前にも私が記事で強調したように "チェックボックス "スタイルの評価は、一般的に製品の機能についての誤った理解につながることを述べました。今回の記事は、この("チェックボックス "スタイルの)評価における問題のまさに典型的なモデルで、簡単な例を挙げてみます。 再びDellEMCが推奨するハードウェアプラットフォームであるVxRail E-Seriesの4ノー

I/Oパスのしなやかさの比較 – Nutanix AOS & VMware vSAN/DellEMC VxRAIL

 本記事は2020年6月22日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 このシリーズの前半では、Nutanix AOSの読み取りパスおよび書き込みパスの利点と、Nutanix独自のデータローカリティの実装が、どのような恩恵をもたらすかについて説明しました。また、データローカリティに関する新たな比較シリーズを開始し、データローカリティが究極のストレージ性能だけではなく、基盤となるクラスタとすべての仮想マシンの性能と機能についてもハイライトしています。それでは、I/Oパスのしなやかさについて詳しく見ていきましょう。 先日、VMware社は「How to handle lost of stuck I/O on a host in vSAN Cluster(vSAN Clusterにおけるホスト上でのI/Oの喪失時の対応について)」というタイトルでKB71207を公開しました。この記事では、ストレージコントローラや物理ドライブなど、I/OパスのどこかでI/Oが「スタック」または「ロスト」した場合のvSANの対応について説明しています。この症状について、VMware社は次のように説明しています:ストレージコントローラやストレージディスクでI/Oがスタックしたり失われたりすると、ESXiストレージコンポーネントは、タスク管理要求を通じて、これらI/Oを中止しようとし、以下のコンソールメッセージを表示します。If I/O is stuck or lost on the storage controller or the storage disk, the ESXi storage stack will try to abort them using the task management request displaying these console messages:引用: HTTPS://KB.VMWARE.COM/S/ARTICLE/71207 記事はこう続けています:このようなロストI/Oがホスト上で見つかった場合、vSANはホストを強制的にPSODさせ、クラスタ上の他のホストに影響を与えないようにします。If such a lost I/O is found on a host, vSAN will force t

レイテンシ、スケジューラー、割り込み、なんてこった!Linuxカーネルアップグレードに関する壮大な物語

本記事はHarshit Agarwal氏 と Samuel Gaver氏による2021年12月9日のnutanix.devへの投稿の翻訳版です。原文はこちら。  はじめにNutanixはハイパーコンバージドプラットフォームですが、その全てのサービス(ストレージサービスを含む)はコントローラーVM (CVM)と呼ばれる特殊な仮想マシン(VM)上で稼働しています。このCVMは現在カーネルバージョン3.10のCentOS Linuxディストリビューションで稼働しています。残念なことにこのカーネルのバージョンは結構古いもので、いくつかの課題を抱えており、このことが今回、Nutanixが新しいバージョンへとアップグレードをする動機となっています。 なぜアップグレードが必要か?バックポート作業の辛さを軽減する: バグやセキュリティ問題に出くわした場合、我々はより新しいバージョンのカーネルから、3.10.xへと変更をバックポートする必要がありました。これらのバックポートは大きく時間がかかるもので、開発者にとってはこうした変更が適用可能で、正しくポーティングされたのかを確認する必要のある大変な作業を必要とします。加えて、マニュアルでのバックポート作業はQAチームにもそれぞれの変更をテストして検証するという大きな負担となっていました。 新たな機能のメリットを享受する : より新しいカーネルでは io_uringとBBR、我々のI/Oスタック内でのCPU効率と性能の改善が含まれており、より要件の高いワークロードを取り回す事ができるようになります。 LTSサポートへの追従 : 3.10のサポートは2017年に終了しています。最近のLTSカーネルを利用することで我々はLinuxコミュニティのサポートを受けやすくなります、Linuxコミュニティでは必要なバグ修正がすべてバックポートされています。LTS系列へと合わせることで、マニュアルで修正を監視してそれらをバックポートするよりも、劇的な改善が見込まれます。  パフォーマンスの改善 : AMD Zen上での優れたコンピュート性能と ext4における高速コミットの2つが、新たなカーネルを利用することで我々が同じハードウェア上でもより優れたパフォーマンスを達成することに貢献するカーネルの改善点です。 問題はなにか?作業を始めるにあたって我々は、最

データベースワークロードのためのNutanixのパフォーマンス

 本記事は2021年11月24日にGary Little氏が投稿した記事の翻訳版です。原文はこちら。  皆さん、ようやくここまで来ました。  全面公開です。私は2013年からNutanixのパフォーマンスエンジニアリンググループで働いています。私の意見は偏っているかも知れませんが、それによってNutanixのストレージの性能についてはそれなりの経験と実績を持っています。すでにNutanix上でデータベースワークロードを稼働させている多くのお客様がおられます。しかし、これらのハイパフォーマンスなデータベースを依然として従来型のストレージ上で稼働させるとどうなるでしょうか? 2017年の.Nextでプレゼンテーションを行った際の資料を掘り出してきて、それに最近のプラットフォーム(AOS 6.0とNVME+SSDのプラットフォーム)のパフォーマンスを追加しました。このランダムReadのマイクロベンチマークのパフォーマンスは2倍以上にもなっています。HCIシステムを数年前にご覧になって、その際に必要なパフォーマンスが出ないと結論づけた方 ― もしかすると、今日出荷されているハードウェアとソフトウェアのシステムでは皆様の要件を達成できるかも知れません。更に詳細は下に。  私のラボの中にあるまだ出荷されていないビルド(※訳注:本日時点で6.1としてすでに出荷開始されています)のAOSが動作しているもう一つのクラスタを見てみましょう。このクラスタも2枚のoptaneドライブとRDMAに対応したNICを搭載しています。この4ノードのシステムでのマイクロベンチマークの結果は?   ワークロード 結果 ノート 8KB ランダムRead IOPS 1,160,551 IOPS 部分的にキャッシュされている 8KB ランダム Write IOPS 618,775 IOPS RF2でフラッシュメディアに完全にレプリケーションされている 1MB シーケンシャル Write スループット 10.64 GByte/s ネットワークスピードの上限に到達、RF2でフラッシュメディアに完全にレプリケーションされている

Nutanixの回復力 パート1 ノード障害時のリビルドのパフォーマンス

本記事は2018年5月30日にJosh Odgers氏が投稿した記事の日本語版です。原文はこちら。本シリーズの索引はこちら。 2013年半ばからNutanixに勤務し、ビジネスクリティカルなアプリケーション、スケーラビリティ、回復力、パフォーマンスに注力してきました。私はお客様やパートナーと、回復力について、また、Nutanixプラットフォームをどのように構成するのがベストなのかについて、たくさんの議論をしています。 Nutanixプラットフォームの多くの強みの1つであり、私が多くの時間とエネルギーを費やしている分野は、回復力とデータの整合性です。それには障害のシナリオとプラットフォームがどのように対処するかを理解することが重要です。 Nutanixは、独自の分散ストレージファブリック(ADSF)を使用して、仮想マシン、コンテナ、さらには物理サーバーにストレージを提供しています。このストレージは、レジリエンシーファクター(RF)2または3で構成することができます。つまり、回復力とパフォーマンスのために、データは2つもしくは3つのコピーが保存されます。 単純化して考えれば、RF2とN+1(例:RAID5)、RF3とN+2(例:RAID3)を比較するのは簡単です。しかし、実際には、RF2と3は分散ストレージファブリックのおかげで、従来のRAIDよりもはるかに高い耐障害性を持っています。これは、障害からのリビルドを極めて迅速に行うことができることと、障害が発生する前に問題を検出して解決するプロアクティブなディスクスクラビング機能を備えているためです。 Nutanixは、読み取りと書き込みのたびにチェックサムを実行し、データの整合性を最大限に確保するための継続的なバックグラウンドスクラビングを行います。これにより、LSE(Latent Sector Errors)やビットロット(Bit Rot)、通常のドライブの消耗などが事前に検出され、対処されるようになります。 ADSFの回復力を議論する際に重要なのは、ドライブやノードに障害が発生した場合に、RF2またはRF3に準拠した状態まで回復する速度です。 リビルドは、すべてのノードとドライブにまたがる完全な分散処理(多対多の処理)です。ですから、非常に高速ですし、ボトルネックを回避するため、そして稼働中のワークロードへの影響を軽

Nutanixの回復力 – パート 5 – CVMのメンテナンス中または障害時のRead I/O

2018年6月8日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 これまでのシリーズでは、ADSFがクラスタ全体にデータを分散することで、ノード障害から迅速に回復する方法について説明してきました(パート1)。また、耐障害性をRF2(Resiliency Factor 2)からRF3へ変換した場合や(パート2)、よりスペース効率の高いEC-X(Erasure Coding)構成へ変換する場合でも(パート4)、影響がないことを説明しました。 ここでは、AOSのアップグレードなどのNutanix Controller VM (CVM)のメンテナンス時や、CVMのクラッシュや誤ってまたは悪意を持って電源を切ってしまった場合などの障害時に、VMがどのような影響を受けるかという非常に重要なトピックを取り上げます。 早速ですが、Nutanix ADSFがどのようにデータを書き込み、保護するのか、その基本を説明します。 下図は、3ノードでクラスタで、1台の仮想マシンが稼働している構成です。仮想マシンはa,b,c,dのデータを書き込んでいます。通常、すべての書き込みは、1つのレプリカが仮想マシンを実行しているホスト(ここではノード1)に書き込まれ、もう1つのレプリカ(RF3の場合は1つまたは複数)がディスク配置の選択優先順位に基づいてクラスタ全体に分散配置されます。ディスク配置の選択優先順位(私は「インテリジェント・レプリカ・プレースメント(Intelligent replica placement)」と呼んでいます)は、データが最初から最適な場所に置かれることを保証します。  クラスタに1つ以上のノードが追加された場合、インテリジェント・レプリカ・プレースメントは、新たな書き込みが発生しなかった場合でも、クラスタがバランスのとれた状態になるまで、それらのノードに比例してより多くのレプリカを送信します。ADSFは低い優先度のバックグラウンド処理でディスクバランスを行います。 Nutanixがどのように複数のレプリカを使用してデータ保護を行っているか(「Resiliency Factor」と呼ばれる)の基本がわかったところで、Nutanix ADSFストレージ層のアップグレード時にどのようなことが起こるかを確認します。 アップグレードは、

Badges

Show all badges