Topics started by TetsuoMiyoshi

158 Topics

Files 3.5

この投稿はDevon Helms Senior Product Marketing Manager - Storage Servicesの投稿をTetsuo Miyoshi - Product Marketing Managerが翻訳したものです。 データは級数的な速度で膨らんでおり、非構造化データの成長がそれに拍車をかけています。15年前ですら100TBのデータは保存するには大きすぎるほどのデータだと考えられていました。今日、我々のお客様はその数倍のデータを管理しなくてはならなくなっています。従来型のNASソリューションはこうした急速な成長に合わせた設計にはなっていません。より大きなデータを管理するという点においての課題を抱えているのです。IT管理者はこの急速なデータの成長とレガシーシステムに対応するために80%[1]もの時間を単に稼働させ続けるためだけに費やしており、ビジネスのイノベーションのための時間には残り20%しか費やすことができていません。 Nutanix Filesはシンプルさ、柔軟性そしてデータインテリジェンスのために設計されています。Nutanix Files 3.5のリリースで我々はいくつもの新たな機能を追加いたしました。 Nutanix Files 3.5における新機能Nutanix Filesの分析機能はファイルデータに深い洞察をもたらしますファイルデータは近年の組織の保持するデータのうち大部分を占めるようになっています。IDCは2025年までに全世界では175ゼタバイトのデータが生成されるとしています(“The Digitization of the World From Edge to Core”; IDC; Authors: David Reinsel, John Gantz, John Rydning; November 2018)。これほどまでに多くのデータになると、その可視性とコントロールはこの規模に対応できるように作られたツールがなければ難しくなってきます。Nutanix Filesの分析エンジンは全てのファイルレベルのアクティビティをロギングし、それをダッシュボードに表示することでお客様の全てのデータについてのデータからの深い洞察を提供します。Nutanix Files分析機能で、管理者は...

AOS 5.17 参上!

AOS 5.17で、Nutanixは革新的な新たな機能に加え、引き続いてのコア機能の改善でハイパーコンバージドインフラストラクチャ(HCI)マーケットにおけるリードをまた更に広げようとしています。AOSサブスクリプション契約内で、お客様はNutanixの開発チームからの継続的なイノベーションからのメリットをPrism経由での1-クリックアップグレードで活用することができるようになります。以下のとおり、いくつかの主な改善点について取り上げたいと思います。完全なリストはリリースノートをご参照ください。  スケーラビリティとパフォーマンス  Foundation Centralによる自動化されたグローバルでの展開 大規模なデータセンター環境は歴史的にITデータセンターのライフサイクルにおいてコストの掛かる複雑な部分でありつづけてきました。積み木のようなAOSの特徴によって、Nutanixを利用しているお客様では、AOSとハイパーバイザーのインストール、そしてサーバーノードを接続してクラスタを形成することを自動化するNutanix Foundationを利用した迅速で簡単な展開にご満足いただいています。Foundationは時間の浪費やエラーの温床となりがちなインストールと構成のプロセスを管理者がいくつかの構成情報を入力して「Go」というボタンを押すだけのシンプルなインストーラーへとシンプル化します。   AOS 5.17では、NutanixはFoundationの能力とシンプルさを拡張し、Foundation Centralを投入します。Foundation Centralは大規模で地理的に分断された環境向けのAOSのインストールプロセスを一箇所から実施できるようにすることで、自動化します。この際に専門的なスキルセットやNutanixエコシステムについての先進知識は必要ありません。この機能によって、企業はより迅速に大規模なデータセンタ環境を構成することができるようになり、重要なIT活動のスピードを落とすことや投資を無駄にすることなく効率的にリモートサイトの最新鋭化をすすめることが出来るようになります。 図 1 - Foundation Central 拡張されたPrismのスケーラビリティ Nutanixのお客様はグローバルのAOSインフラストラクチャをPr

Nutanix AES: 事例によるパフォーマンス パート2

本記事はn0derunnerに2018年12月18日に掲載された記事の日本語ヴァージョンです。 原文を参照したい方はこちら。 大規模なデータベースの読み込みパフォーマンスを2倍まで解決する方法は?Nutanix AOS 5.10は自律化エクステントストア(Autonomous Extent Store - AES)と呼ばれる機能を搭載しています。AESはこれまで存在していたデータローカリティを補完し、効率的にメタデータにローカリティをもたらします。巨大なデータセット(例えば 20%のホットデータを含む10TBのデータベース)において、2TBのホットデータセットに対してランダムアクセスを行った際にスループットが2倍改善するという結果を得ています。 我々の実験では故意にワーキングセットを大きくして、メタデータがキャッシュ内に収まらないようにしています。2TBを100%ランダムなアクセスパターンでまんべんなくアクセスし、2TB全てのデータにアクセスするまでにかかる時間を記録しました。同じハードウェアを利用し、AESを有効にした場合、その時間は半分になりました。チャートで確認できるとおり、スループットは期待通り2倍になっています。 AESによるメタデータのローカライゼーションがこの2倍の改善に貢献しています。AESはメタデータの殆どをノードのローカルに維持します - ですから、ネットワークを超えてデータを取得する必要がありません。加えてAESはDRAM内にメタデータをキャッシュする必要性も低減しています。これはローカルアクセスが非常に高速だからです。非常に巨大なデータセットについてはメタデータの回収がアクセス時間の大部分を締めているケースがあります。これはあらゆるストレージについて言えることです。今回我々が示したとおり、メタデータの解決のスピードアップによってスループットについて劇的な改善が行われるのです。

Nutanix Mine: データ保護をHyperconverge

本記事は2019年5月8日に投稿されたMark Nijmeijerの記事の翻訳版です。 原文を参照したい場合にはこちら。 2年前、私はこちらの記事でNutanix AOSプラットフォームの周辺で形成されるデータ保護のエコシステムについての話題を共同執筆しました。Nutanixはその場にそのまま留まっていたわけではなく、それ以降、パートナーのリストを著しく拡充してきました。我々が検証を行ってきた完全なリストはNutanix Ready Technology Alliance Partner Program pageをご確認ください。 我々はここにとどまっているつもりはありません、これはまだNutanixのデータ保護に何が保存されるかの始まりにしか過ぎ無いのです!Nutanix Enterprise Cloud OSは急速に全てのアプリケーションワークロードのための業界最高のプラットフォームへとなりつつあります。 今日のNutanix Mineソリューションのアナウンスで我々は我々のプラットフォームをセカンダリーストレージへと拡張します。Nutanix MineプラットフォームはNutanix AOSの素晴らしさを活用し、現在アプリケーションにもたらしているのと同様の効果 ー シンプルさ、パフォーマンス、弾力性をセカンダリーストレージへともたらします。Nutanix MineはNutanix AOSの管理プレーンとデータファブリックの両方を拡張し、ターンキーソリューションとしてデータ保護の機能とバックアップターゲットストレージとして動作するようにし、Nutanixがプライマリインフラストラクチャである環境はもちろん、あらゆる仮想化環境のバックアップを行えるようにします。 Nutanixはハイパーコンバージドインフラストラクチャ(HCI)を発明し、コンピュート、ストレージ、ネットワーク機能、そして管理を単一ソリューションへとまとめ上げることで、データセンタ内によくある複雑性を排除してきました。Nutanix Mineは従来からのデータ保護環境に見られる同様の複雑性をコンピュート、ストレージを単一プラットフォームへまとめることで排除し、更にはテープドライブのような従来からのアーカイブ用のデバイスの必要性をも排除します。 データ保護機能を提供するために、我

次なるフロンティア – ROBOおよびVDI環境に向けたインビジブルなライセンス

本記事は2019年8月7日にGreg White氏、Kong Yang氏、Adrian Finch氏が投稿した記事の翻訳版です。 原文はこちら。 Nutanixは継続的にITがよりビジネスへと付加価値を提供できるようにするためのシンプル化に取り組んでいます。まず最初に我々が行ったことはインフラストラクチャをインビジブルにすること、そしてデータセンタ、現在はクラウドです。続いてライセンシングに取り組むべきというのは非常に論理的ではないでしょうか?うーん、ちょっと言いすぎかもしれませんが、それ以外の件と同様に我々はライセンシングからも複雑さを取り除きたいのです。 Nutanixは特定のユースケースについてキャパシティベース(CBL)とアプライアンスライセンシング以外の新しい選択肢となる利用モデルを導入し、様々なNutanixソフトウェアの利用をシンプルに計画、価格、購入を実現する方法をご提供します。2つの新しいユースケースは仮想デスクトップインフラストラクチャ(VDI)とリモートオフィス/ブランチオフィス(ROBO)環境です。 新しい利用モデルとはどのようなもの?この消費モデルは幾つかのNutanixソフトウェアソリューションを一緒に「ライセンシング」するモデルで、これによってハードウェアとソフトウェアの購入は分離されることになります。これによって、インフラストラクチャのニーズに基づいてどこに、どのようにNutanixソフトウェアを展開するかという点で、大きな柔軟性が実現されることになります。それぞれのモデルはAOS、AHV、Prism Starterを含んでいます。 VDIについてはこのライセンスモデルはVDI per userと呼ばれ、同時ユーザー数をベースとします。 ROBOについてはこのライセンスモデルはROBO per VMと呼ばれ、サイト内で利用される仮想マシン数をベースとします。 なぜ新たなモデルが必要なのか?こうしたソリューションの領域においては、過去から市場において「毎」のモデルが利用されてきました。同様のアプローチをご提供することで、HCI上でのインフラストラクチャのモダナイゼーションの計画をシンプル化することができます。加えて、展開の初期の小さな環境において、ハードウェアに紐付けられた価格は組織がまだ成長の余地を残しているにも関

Nutanixのメリット その3: パフォーマンスとキャパシティのためのシームレスなクラスタ管理

本記事はNutanixのSenior Technical Marketing EngineerのBhavik Desaiが2022年8月18日に投稿した記事の翻訳版です。原文はこちら。  このシリーズのこれまでの2つの記事では、Nutanix AOSが自動化されたアプリケーションを意識したデータ管理を実現する、動的な分散されたストレージをどのように提供しているのか、ということについて掘り下げてきました。今回の記事では、これらの2つの機能が、管理者がクラスタに更に物理ノードを追加して拡張をしなければならない場合に、どのように強力なメリットをもたらすのかについて見ていきましょう。 パフォーマンスとキャパシティのためのクラスタ管理展開が終われば、インフラストラクチャーとアプリケーションの日々の運用が重要になります。Nutanix AOSは管理者の行うライフサイクル管理を簡単かつシームレスなものにします。すべての管理者が行わなければならない重要なタスクの一つにストレージもしくはパフォーマンスのためのインフラストラクチャーの拡張があります。管理者は通常、最初は均一なクラスタを展開することから始めることになりますが、アプリケーションが成長するにつれて、よく発生するユースケースがクラスタへのさらなるキャパシティの追加です。管理者は多くのストレージキャパシティを持つノードや、アプリケーション仮想マシンを動作させないストレージオンリーノードを含む様々なタイプのノードを追加するという選択肢があります。AOSはこの部分をその動的なクラウドアーキテクチャーで劇的にシンプルにすることができます。一度ノードが追加されると、アプリケーションは他のHCIシステムのように何らかの介入を必要とすることなく、即座にその追加されたリソースを活用することができます。これはAOSが書き込みを行うデータが最適なサイズであることと、動的に自律化されたWriteを行うことで可能となっています。AOSは自動的に新たなリソースを利用し始め、マニュアルでの介入を行うことなく、書き込みのコピーデータは新しいノードへと送信されます。それに加えて、AOS内のCuratorフレームワークがディスクのリバランスをバックグラウンドオペレーションとして開始させ、自動的にクラスタのバランスを調整します。以下の例で大容量のノードをクラスタ

ネットワークトラフィックがビッグデータインジェストのパフォーマンスに与える影響の比較 – Nutanix vs VMware vSAN / DellEMC VxRAIL

本記事は2020年3月9日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 このシリーズでは、Nutanix AOSソリューションがvSAN / VxRAILと比較して、多くのアーキテクチャ上の利点があることを学んできました。 この記事では、実世界のネットワークトラフィックがパフォーマンスに与える影響の例を紹介します。これまでに説明してきたコンセプトの多くが証明できます。この例では、ビッグデータのインジェスト処理のような書き込みの多いワークロードを見てみましょう。 ベースラインとなるテスト: 2つの同一構成の4ノード・クラスターを使用します。完全にアイドル状態になるのを待って 、X-Rayを使ってビッグデータ取り込みのシナリオを開始しました。2つのプラットフォームは同じくらいの時間でデータの取り込みを完了しました。 Nutanix AOSは13分、VMware vSANは14分でした。 ネットワークトラフィックがない状態でのビッグデータの取り込みテストの所要時間 テスト中のネットワーク使用率は、どちらのソリューションも約2GBpsで、vSANはテストが半分ほど経過したところで約1.5GBpsに低下しました。  次に、各ホスト上でiPerfを実行し、実世界のシナリオをシミュレートしました。ストレージトラフィックだけでなくVM間やクライアント・サーバ間のトラフィックを処理する環境です。 iPerfでネットワークトラフィックを生成した環境でのテスト 次のグラフは、テスト全体のネットワーク帯域幅を示しています。この中にはiPerf(~6GBps)で生成されるトラフィックとX-Rayのシナリオで生成されるビッグデータ取り込み(前のグラフのように~2GBps)の両方のトラフィックが含まれています。これらは両プラットフォームで同様の条件です。  当然のことながら、いくつかの影響が見られました。このテストは100%書き込みで、両方のプラットフォームが書き込みレプリカにネットワークを使用しなければならないためです。 iPerfのネットワークトラフィックを用いたビッグデータ取り込み処理の所要時間 Nutanixへの影響としては、シナリオ完了までに4分(~31%増)多くの時間がかかりました。vSANは14分(~100%増)多くかかりました。 

HCIプラットフォームの可用性、回復力、そして整合性 – パート2

本記事は2021年1月12日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 Part1ではX-Rayのシナリオである「Platform Availability, Resiliency & Integrity (プラットフォームの可用性、回復力、そして整合性)」の成功結果のチャートと失敗結果のチャートを確認しました。(可用性が期待されたレベルで維持できたか、障害で I/Oエラーが検出されたかを確認できます) パート2では、ESXi7.0.1ビルド17325551で実行されているNutanixAOS5.19およびvSAN7 Update1のさまざまなテスト結果を確認します。 注:同じテストをESXi6.7とESXi7.0.1の以前のビルドで行い、AOSとvSANの両方で同様の結果が得られました。 最初の比較では、X-Ray向けの「Platform Availability, Resiliency & Integrity」のシナリオを使用し、シナリオのデフォルト設定を使用します。ディスク使用率は10%、I/Oタイムアウトは30秒、および「全てのプラットフォームでの復元力テスト」です。 パート1で学習したように、テストではノードごとに1つのVMをデプロイし(N+1ノード目は除く)、ノードでアクションが実行される前に、VMをノードからプロアクティブに移動します。これにより、VMはテスト全体を通じて起動し続け、I/Oアクティビティと整合性を正確に確認できます。 Nutanix AOS 5.19とvSANはどちらも、ESXi 7 Update 1(ビルド17325551)と同じDell PowerEdge R740xd-24 NVMe + SSDハードウェアで実行されています。 テスト前に、すべてのノードを最新のBIOS/ファームウェアに更新し、可能な限り公平で比較可能であることを確認しました。 VMの可用性(メンテナンスモード):NutanixAOSとvSAN7U1はどちらもVMの可用性を維持していました(合格) VM I / Oエラー(メンテナンスモード):NutanixAOSまたはvSAN7U1ではI / Oエラーは発生しませんでした(合格) VMの可用性(ローリングリブート):NutanixAOSとvSAN

Nutanix AOS vs vSAN/VxRAIL 大規模クラスタ & vSAN 7U1のデータ整合性

本記事は2021年2月5日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの索引はこちら。 このシリーズでは、Nutanix AOSが、3ノードクラスタを含むResiliency Factor 2(RF2:データのコピーを2つ保持する設定)を使用している場合に、メンテナンスモード、リブート、障害シナリオにおいて、仮想マシンの完全な可用性とデータの整合性を維持することを学びました。 また、Nutanix AOSとvSAN 7 Update 1を比較し、(vSANが)より高い(SCSI)I/Oタイムアウトの設定、データの完全退避モードを使用し、オブジェクト再構築タイマーを60分遅延からゼロ遅延(つまり、再構築を即時開始する設定)にしたにもかかわらず、vSANは再起動と電源オンオフ(障害)シナリオの両方でI/Oの整合性エラーが発生するという事実を見てきました。 このパートでは、引き続きX-Ray のPlatform Availability, Resiliency and Integrity(プラットフォームの可用性、回復性、整合性)テストを実施しますが、今回はDell PowerEdge r740xd-24ノード(NVMe+SSD)を使用した8ノードのvSAN 7 Update 1クラスタで行います。 このテストの目的は、大規模なクラスタが結果にどのような影響を与えるか、また、vSANが大規模な環境でI/Oの整合性を維持できるかどうかを確認することです。 それでは早速、結果を見ていきましょう。 メンテナンスモード:  (このテストフェーズでは)I / Oエラーはレポートされません。  再起動時:  (このテストフェーズでは)206のI/Oエラーが確認できます。 電源オフ時:  (このテストフェーズでは)56 のI/Oエラーが確認できます。 (テスト結果の)考察:4ノードのvSANクラスタでの以前の結果と比較すると、小さいクラスタよりも大きいクラスタの方がI/Oエラー数を減らすことができるようです。 これは、仮想マシンオブジェクトがより多くのノードに配置された状況下で、テスト内容が(8ノード構成の)クラスタ内の最初の4つのノードでのみ操作(メンテナンスモード、再起動、電源オフ)を実行するため、理にかなっています。 もし、このテストが(最初の4

.NEXT Digital Experience 2021 アナウンスメントについてのブログ ー索引ー

本記事は.NEXT Digital Experience 2021でのアナウンスメントについての記事の索引です。2021年内は.NEXT Digital Experience 2021 (グローバルイベント)のレコーディングにアクセスが可能ですので、ぜひ詳細が気になる方はイベントへの登録をお願いいたします。 また、2021年10月7日には.NEXT Conference Japan 2021が実施されます。字幕入りのキーノートはもちろんですが、完全日本オリジナルコンテンツの22に及ぶブレイクアウトセッションは必見です。こちらも10月末まで視聴が可能ですので、ぜひイベントへの登録をお願いいたします。(グローバルイベントとは登録が独立していますのでご注意ください。) 本索引では、Nutanix社員はもちろん、コミュニティでの情報も集めて行きます。.NEXTに際して、こんな記事を書きましたというコミュニティの皆様、ぜひコメントにてお知らせください。 記事タイトル 概要 原文リンク Nutanix AOS 6のご紹介 HCIソフトウェアのパイオニアであるNutanix AOSの大規模なマイルストーンであるNutanix AOS 6ソフトウェアをご紹介します。 Announcing Nutanix AOS 6 NutanixとMicrosoft Azureによるハイブリッドクラウドインフラストラクチャ NutanixはMicrosoftとコラボレーションし、より素早く、シンプルで、コスト効率性の高いクラウドへの道筋をご提供します。 Hybrid Cloud Infrastructure with Nutanix and Microsoft Azure Nutanix Eraによる思い通りのデータベース・アズ・ア・サービス Nutanix Eraの最新の機能をご紹介します。 Database-as-a-Service on your terms with Nutanix Era データ中心の世界のためのストレージを再考する Nutanixの統合ストレージ ー 非構造化データ管理の新たなマイルストーン Rethinking Storage For A Data Centric World   コミュニティの皆様のブログブログタイト

Nutanix Eraによる思い通りのデータベース・アズ・ア・サービス

本記事は2021年9月21日にJeremy Launier氏が投稿した記事の翻訳版です。原文はこちら。.NEXT 2021に関する記事の索引はこちら。 今現在、データベースはほぼすべての組織に存在すると言っても言い過ぎではありません ー データベースは至るところにあります ー それ無しでは業務もそして競争に打ち勝つこともできません。組織の規模やその複雑さに関係なく、データベースのアナリストと管理者は疲れる暇もなくデータを管理し、データベースが提供するビジネス価値 ー 競争優位性に関する分析や戦略的な活動の推進 ー を展開することでステークホルダーをサポートしています。  NutanixはIDCに、データベースの管理にまつわる課題や複雑さについて議論したInfoBrief *の執筆を委託しました。その結果は目を見開くべきものでした :73%の組織はオンプレミスとクラウド環境とで異なる手順でデータベースの管理を行っていました。 75%のリレーショナル・データベース(RDBMS)環境は依然としてプライベートクラウドに残されていました。 63%の回答者はプライベートとパブリッククラウドをまたがった共通のデータベース管理が非常に有用であると信じていると回答しました。 多くの組織はデータベースのライフサイクルの管理の複雑性に消耗しており、特にこの調査によってオンプレミスでこれが顕著であることが明らかになりました。これには新たなデータベースの展開、既存のデータベースの管理、そしてデータベースのライフサイクルに関連するバックアップ/リカバリ、アップグレード、パッチ、拡張、そしてデータ管理などの多くの日々のタスクが含まれています。  Nutanixは3年ほど前にEra®データ管理ソフトウェアをリリースし、データベース管理にシンプルさと自動化をもたらしました。我々はお客様がデータベースサービスをAPI経由でオンプレミスでも、クラウド上でも、もしくはクラウドをまたぐ形でも一貫したやり方で、運用し、利用する、そうした未来を思い描いています。我々はこれをお客様に対してデータベースにまつわるタスクを透過的なやり方で自動化することでOSとデータベースのヴァージョン、そしてカスタマイズ性を維持したまま、自動化による効果を享受できるようにすることで提供しようとしています。製品の立ち上げ以降、Nuta

Nutanixの回復力 - パート 7 – ハイパーバイザーアップグレード中のReadおよびWrite I/O

本記事は2018年6月11日に Josh Odgers 氏が投稿した記事の翻訳版です。原文はこちら。本シリーズの牽引はこちら。 パート1から4をまだ確認していない場合はぜひご確認ください。これらは重要なレジリエンシーファクターの障害からの回復速度に関するもので、その場でRF2からRF3へ、もしくは同じ回復力レベルを提供しながら容量を節約するイレイジャーコーディング(EC-X)へと変換することで、回復力を向上させることについて解説しています。 パート5と6では、CVM のメンテナンスまたは障害時に読み取りと書き込みI/Oがどのように機能するか解説し、このシリーズのパート 7 では、ハイパーバイザー (ESXi、Hyper-V、XenServer、AHV)  のアップグレードが読み取りと書き込み I/O にどのような影響を与えるかについて説明します。 この投稿ではパート5と6を頻繁に参照するので、このブログを完全に理解するには前の投稿をよく読んでください。 パート5とパート6で説明したように、CVM の状況に関係なく、読み取りおよび書き込み I/O は引き続き提供され、データは設定されたレジリエンシーファクターに準拠したままです。 ハイパーバイザーをアップグレードした場合、仮想マシンはまずノードから移行し、通常通りIO操作を続行します。ハイパーバイザーに障害が発生した場合、仮想マシンは HA によって再起動され、通常のIO操作を再開します。 ハイパーバイザー (またはノード) の障害またはハイパーバイザーのアップグレードのいずれの場合でも、最終的にはいずれのシナリオにおいても、仮想マシンを新しいノードで実行し、元のノード (下の図のノード 1) がオフラインになり、ローカルドライブ上のデータが一定の期間利用できなくなります。  このシナリオでは、読み取り I/O はどのように機能しますか? パート5での説明と同じ方法で読み取りはリモートで処理されます。または、2 番目のレプリカが仮想マシンが移行された (または HA によって再始動された) ノード上に存在する場合、読み取りはローカルで行われます。リモートでの読み取りが発生した際に、1MB のエクステントはローカライズされ、その後の読み取りはローカルで実行されるようになります。 書き込みI/Oはどうですか? パート6と同

Nutanix Era データベース& API自動化

  本記事はChris Rasmussen氏が2020年11月16日にnutanix.devに投稿した記事の翻訳版です。原文はこちら。  Nutanix上での自動化を考えた場合、これは仮想マシンやイメージだけにとどまりません。Nutanix Calmでアプリケーションライフサイクル管理を、KarbonでKubernetesクラスタを自動化することができます。これらについてはコンポーネントや製品について、多くの記事とコードのサンプルでカバーされています。 ほとんどすべてのアプリケーションの一部ではあるものの、未だにNutanix.devでカバーされていないコンポーネントがあります ― データベースです。読者の一部はNutanix Eraが「あらゆるクラウドのデータベース運用をシンプル化」するものであるということについてご存知でしょう。Eraがどのようなものかについて更に詳しくはNutanix.comの記載を参照していきましょう : パブリック、プライベート、そしてハイブリッドクラウドにおいて、Eraは単一コンソールからのシンプルで、高速、一貫した管理によって思い通りのデータベース管理を実現します。Eraによって劇的に稼働時間が改善され、退屈なマニュアル操作は低減され、コスト効率性が高まります。この次世代のクラウドとクラスタをまたいだ1-クリックのシンプルさが実現されます。これこそがEraが実現する新時代なのです。– https://www.nutanix.com/products/era しかしながら、もしもあなたがアプリケーションを設計する立場であるのなら、Nutanix Eraによって提供される優れたメリットをプログラマティックな形で享受したいと考えますよね? この記事はそんな皆様のためのものです。 私の環境私がこの記事を2週間ほど前に書き始めたときには、Nutanix Eraのヴァージョンは1.3でした。最も新しいNutanix Eraのヴァージョンは2020年11月16日時点で2.0.1(2021年12月8日の翻訳時の最新は2.3)です。私の開発環境内ではこのヴァージョン(2.0.1)が利用されています。これ以降のEraのヴァージョンではユーザーインターフェイスが変更されている場合があります。 もしもこれまでに環境内にNutanix Eraを展開したことがなく

Nutanix AOS 6.1 – マルチノードの取り外しとパブリッククラウドバーストにおける優位性

 本記事は2021年12月14日にJosh Odgers氏が投稿した記事の翻訳版です。原文はこちら。 以前にNutanix AOSソリューションが提供するリビルドのパフォーマンスを含む拡張性、回復力、及び性能についての多くの優位性の詳細について述べてきました。これらはNutanix環境が障害発生後に自分自身で、完全な回復力を備えた状態にまでのリカバリを、可能な限り早く実行することを保証しています。 これはNutanix環境を支えるキャパシティとパフォーマンスに応じてデータをクラスタ全体で動的に分散させるAOSストレージファブリックによって可能になっています。 AOSストレージファブリックにはAOSがデータを1MB および 4MBのエクステントで保存するのとは反対に、未発達なHCI製品がデータの保存に巨大なオブジェクトを利用しているために潜在的に発生してしまう、個々のノードのキャパシティの問題に対して未然に対処する事ができる、という点以外にも多くの優位性があります。 AOS 6.1では、複数のノードを同時に取り外す事ができる新しい機能が搭載されますが、これを使うことによって同じAOSアーキテクチャ上で、合理的な時間内に効率的に複数のノードを取り外すことができるようになります。 ノードの取り外しは管理者が各々のノードの進捗状況を監視する必要なく行われ、1ノードが完了すると、それに続くノードの取り外しが前のノードと同様に行われます。 Nutanix Prism UI内でマルチノードの取り外しを実行するサンプル 一つずつ取り外すのと比べてどれぐらい効率的なのか?たとえば、8ノードのクラスタがあり、そこから2もしくはそれ以上のノードを取り外すときのことを考えてみましょう。 以前のAOSと、Nutanix以外のHCIプラットフォームではノード8からクラスタ内の他のノードへ移動されていました。 AOSはこれを、データを残されたすべてのノードに細やかなレベルでバランスしながら効率的に実施していましたが、それに続くノード7の取り外し時にはノード8に格納されていたデータのいくらかがノード7上に配置されており、再度データ移動の対象となってしまっていました。データを2回(もしくはもっと)移動させることは不必要ですし、クラスタへのオーバーヘッドと処理時間の長期化の両方が発生させます。 ノード

Nutanix上でのデータベースの圧縮

本記事は2019年2月17日にGary Little氏が投稿した記事の翻訳版です。原文はこちら。 圧縮の有効性Nutanixクラスタ内で標準の圧縮を利用してデータベースを稼働させた場合にはどれほどの容量削減が期待できるでしょうか? TPCx-HCIベンチマークを稼働させた際には圧縮のみで、おおよそ2:1の削減を実現することができました。TPCx-HCIベンチマークはデータベース統合の構成をシミュレーションすることができます、つまり、ホストあたり多くのデータベースがあることになります。圧縮をしない場合のデータのサイズは45TBほどでした。 圧縮+暗号化加えて、データの保存時暗号化(Data at rest encryption - DARE)を有効にしました。クラスタの機能を利用して、圧縮と暗号化の両方を実現することができます。(まず圧縮を行い、その後暗号化)もしもデータベースエンジン自体が暗号化を行う場合、それによって圧縮の効果は小さくなります。  データの生成ZFSと同様に、Nutanixのファイルシステムは LZ4 圧縮を利用し、現実的なデータセットに対してインラインで2:1程度の容量削減の期待値です。TPCx-HCIベンチマークではE-Genデータ生成ツールを利用し、データベースを作成しました。E-GenはTPC-E ベンチマーク向けに作成されたツールで、機械が生成する文字列ではなく、国勢調査データとNYSEの株価リストなどの汎用的なリアルデータをもとにデータを生成します。 TPCx-HCI Data 

Nutanix AHVクラスタにbitnamiイメージをインストールする

本記事は2019年6月28日にGary Little氏が投稿した記事の翻訳版です。原文はこちら。 パブリッククラウドの良いところは、Bitnamiのような企業が作成した、あらかじめパッケージングされたアプリケーションの仮想アプライアンスを使用できることです。 Nutanix AHV上でも、これらと同じアプライアンスイメージを使って、簡単にPostgresデータベースのベンチマークを行うことができます。 ステップ1. bitnamiのイメージを入手するwget https://bitnami.com/redirect/to/587231/bitnami-postgresql-11.3-0-r56-linux-debian-9-x86_64.zip ステップ2. ファイルを解凍し、bitnamiのvmdk イメージを単一の qcow2[1] ファイルに変換します。qemu-img convert *vmdk bitnami.qcow2 ブラウザでアクセスできる場所にbitnami.qcow2イメージを置き、Prismサービスに接続し、"Image Configuration "を使ってアップロードします。  イメージのアップロードが完了したら、今度はそのイメージを元に新しいVMを作成します。  起動するとbitnamiのロゴが表示され、コンソールでbitnamiのパスワードの設定やsshの有効化などを行うことができます。bitnamiイメージでのsshの有効化/無効化bitnamiイメージでPostgresに接続する注意 - "sudo -c postgres <some-psql-tool>" と入力したときに求められるパスワードは、Postgres DB のパスワード(./bitnami-credentials に保存)であり、 OSのユーザーのパスワードではありません。 アプライアンスに接続したら、postgresとpgbenchを使って、単純なデータベースワークロードを生成することができます。 [1] これはどこかのLinux環境で実施してください。なぜか、brew経由でインストールしたqemuユーティリティでは、変換に失敗しました。OVAをAHVに直接インポートすることは、将来的に可能になるはずです。(※訳注:Prism Central 2020.

Nutanixのメリットその8: 統合されたセルフサービスでのデータベース管理

本記事は2022年9月29日に投稿された記事の翻訳版です。原文はこちら。  Nutanixのメリットのシリーズのはじめに、我々はNutanixクラウドプラットフォームが動的な分散ストレージ、自動化されたアプリケーションを意識したデータ管理、そしてきめ細やかな効率的なスナップショットなどのアーキテクチャ上の決断から、重要なアプリケーションやデータベースを稼働させるための優れたプラットフォームであるということを示してきました。Nutanixにはこれらに加えて、これらのビルディングブロックの能力を活用した、NutanixデータベースサービスもしくはNDBとして知られるセルフサービスのデータベース管理プラットフォームもご提供しています。NDBはデータベースの管理者が日々行うタスクを自動化したり、開発者がセルフサービスでのデータベースの展開を行うことを実現して支援し、データベースのライフサイクル管理に向けた自動化の中心として機能します。Nutanixストレージのパフォーマンスと効率性と共に、NDBは高性能なデータベースをあらゆる規模で提供することをもより簡単にすることができます。 高速でシンプルなデータベースの展開NDBはデータベースの展開を事前に定義された環境に合わせたプロファイルを利用することでシンプル化します。ソフトウェアプロファイルはOSとデータベースエンジンのテンプレートで、一貫したソフトウェアのバージョンを維持するのに役立ちます。さらに、追加のプロファイルを利用して環境をカスタマイズすることもできます。コンピュートプロファイルではメモリやCPUがデータベースの要件を満たすように柔軟な選択肢を提供します。ネットワークプロファイルはこうしたデータベースを開発、検証、本番であろうと適切なネットワーク上に配置することができます。データベースパラメータープロファイルはそれぞれのデータベースエンジンをデータベースのサイズやメモリ要件に応じてカスタマイズします。これらを利用してWindows上のMSSQLで利用されるメモリの上限を決めたり、PostgreSQLのワーカープロセスの最大数を制限したりすることができます。もしもWindows上にMSSQLを展開する場合にはドメインプロファイルを利用して、ドメインとカスタムのOUに必要に応じて参加させることもできます。 開発者のセルフ

Nutanixのメリットシリーズ 目次

 本シリーズはNutanix本社のマーケティングチームが2022年の秋に投稿した記事の翻訳版シリーズです。上の画像でIDCが予測するように、2022年から2026年の4年間で生まれるアプリケーションの数は過去40年間かけて生み出されてきたアプリケーションの数に匹敵します。つまり、アプリケーションが生まれるスピードが10倍になっているのです。1年や2年に1回アプリケーションがアップグレードされるのではなく、アプリケーションは1-2ヶ月という頻度で更新されるようになります。このスピードに対応するためには5年に一度更新されるようなインフラストラクチャーでは間に合わなくなってきています。また、数週間に一度というアプリケーションのアップグレードにアプリケーションの停止を伴うようなアーキテクチャーもビジネス上許されなくなり、マイクロサービス型のアーキテクチャへと急速に移行していきます。この流れに対応するため、NutanixもHCIから(ハイブリッド&マルチ)クラウドプラットフォームへと進化を続けています。これまでのNutanix HCIのメリット(メリット1-5)をベースのテクノロジーとして、マルチクラウド(メリット6,7)、クラウドDBaaS(メリット 8)、マルチプロトコルデータサービス(メリット 9)、そして何よりも重要なマルチクラウドセキュリティ(メリット 10)の提供とクラウドプラットフォームとして進化を続けています。 ぜひ復習として1-5、さらにクラウドとしてのNutanixとして6-10をぜひご確認ください。 Nutanixのメリット その 1: 動的に分散されたストレージ Nutanixのメリット その2: 自動化されたアプリケーションを意識したデータ管理 Nutanixのメリット その3: パフォーマンスとキャパシティのためのシームレスなクラスタ管理 Nutanixのメリット その4: きめ細やかで効率性の高いスナップショット Nutanixのメリット その5: エンタープライズグレードのレプリケーションとディザスタリカバリ Nutanixのメリットその6: ハイパーバイザーの選択肢 Nutanixのメリットその7: 自由なライセンスポータビリティ Nutanixのメリットその8: 統合されたセルフサービスでのデータベース管理 Nutanixのメリット その9

アジア太平洋地域-日本のビジネスを牽引するクラウド技術の動向について

業界レポートや各地域の専門家は、アプリケーションやデータを管理するための技術に巨大投資が行われると予測しています。  本記事は Scott Steinberg氏が 2023年4月3日に投稿した記事の翻訳版です。原文はこちら。 市場調査会社IDCによると、2026年までに、アジアを拠点とする2,000社のトップ企業の総収入の40%が、デジタル製品、サービス、体験によって生み出されるようになるとのことです。これにより、爆発的に増加するアプリケーションやデータ、そしてそれらを実現するシステムを管理する必要性が高まります。 従来のデータセンターで運営されている技術が、「旧態依然」であり続けることは、もはや不可能です。また、クラウドサービスへの移行を急ぐことは、必ずしも最良の反応とは言えません。これらのことは、COVIDによる混乱後のビジネス調整で明らかになりました。と、NutanixのAPJセールス担当ジェネラルマネージャー兼バイスプレジデント(営業部長)であるAaron White氏は述べています。 「組織にとって今こそまさに、一歩引いて、パッチワークのような情報技術を手放し、時の試練に耐え得るより永続的で拡張性の高いソリューションへと切り替えるべき時なのです。」とWhite氏は述べています。 その結果、だんだんと、企業の多くが、ハイブリッド型マルチクラウドITオペレーションを採用し、構築するようになってきています。White氏は、APJ全域の顧客が、デジタルトランスフォーメーションとデータセンターの最新化を優先し、パンデミック時にパブリッククラウドとデータベースを急いで導入した状況を継続しつつ、より永続的でかつ安定したソリューションへ到達したと見ています。 「顧客は、アプリケーションの数が飛躍的に増加することで、その管理の必要性に迫られると同時に、データベースのスプロール化(無計画な広がり)にも対処せざるをえません。」「このことは、この地域のITチーム全体にまたがって、いくつかの重要な傾向をもたらしています。」と、White氏は述べています。 関連 : ハイブリッドマルチクラウドシステムでデータベースを制御する IDCは、今後数ヶ月内に、この地域の企業が、コスト削減と効率化の手段として、ITソリューションに多額の投資を行うであろうと言及しています。同様に、アプリやデータ

効率化を見据えたデジタルトランスフォーメーション

ITリーダーは、IT投資からより多くの利益を得るために、あらゆるエンタープライズ・テクノロジーを利用しています。  本記事は Scott Steinberg氏が 2023年4月19日に投稿した記事の翻訳版です。原文はこちら。 IT業界のベテランに話を聞くと、ほとんどすべての業務において効率化が最優先事項であることがわかります。世界経済が低迷し、新しいテクノロジーの波が意思決定を複雑化させるにつれ、その必要性と難易度はますます高まっています。 Gartnerによると、世界のITソリューションへの支出は、2023年には5.1%増の4.6兆ドルに達すると予想されています。アプリケーションソフトウェア、インフラソフトウェア、ビジネスプロセスサービス、システムアーキテクチャに対する企業の投資の半分以上が、今後数年間でクラウドへ移行すると予想されています。とはいえ、クラウド化を急ぎすぎた企業は、ハイブリッドクラウドアプローチが最善の方法であることに気付きつつあります。その一方で、企業は景気後退による投資の大幅な削減を懸念しています。 ITの意思決定者は、予算内でより多くのものを得ることを目指し、所有とレンタルを組み合わせたコンピューティング・リソースの総所有コスト(TCO)シナリオを検討しています。ハイパーコンバージドインフラストラクチャー(HCI)技術は、変化するニーズに合わせてワークロードを最適化できるハイブリッドマルチクラウド運用モデルを構築するのに役立ちます。 Juniper NetworksのCIOであるSharon Mandell氏は、Nutanixに対して次のように語っています。「ITリーダーとして、私たちは常に『少ないリソースでより多くのことを行う』という考え方で、業務にあたっています。」 “例えば、スタートアップと仕事をするとき、特にそれがビジネスの重要な領域である場合、まずは彼らが財務的にどのような状況にあるのかを理解したいと考えます。” 関連 : HCIのビジネス価値を試算する 特に厳しい経済情勢下では、IT機能はビジネスコストとみなされ、厳しく管理されることが多いです。ITが将来にとって不可欠であると考える企業でさえも、必要なものだけに予算を使うという戦略性を強めています。コンピューティング・リソースを迅速にスケールアップまたはスケールダウンするという機

3階層(もしくはそれ以上)のインフラストラクチャに迫る危機

本記事の原文はコチラ。 昔々のそのまた昔(1999年)、3階層のインフラストラクチャはアプリケーションのニーズのために生まれてきました。1999年からのことです。 上辺だけの話ではありません ー 3階層はウェブアプリケーションの爆発の際の変革であり、今回の話題はそのような話です:あらゆるテクノロジーは「その時代」ごとに置き換えられていくものであり、優れている、長期目線である、もしくは特に今日のクラウド対応の過ぎ去りし日のアプリケーションから進化を遂げた輝かしいアプリそして動的なワークロードを動作させたいと考えているような場合にそれが行われるのです。 ですが、どうして安住の地である3階層の世界にとどまっていてはならない理由は何でしょうか?何が危険なのでしょう? 成長を妨げる可能性がありますバラバラのサーバベンダ、ストレージベンダ、ネットワークベンダ、仮想化ベンダーとこの3階層構成によって、会社組織はテクノロジーのベスト・オブ・ブリードを選択することができ、注意深く統合しながらデータセンタを作り上げてきました。しかし、このアプローチはITシステムにプレッシャーを掛けたり、新しいアプリケーションを利用したいというビジネスからのニーズと同じようにスケールアウトさせるには不向きです。単に3階層インフラストラクチャをベースとしたインフラストラクチャを拡張したいという試みですら複雑になり、より複雑性が増していきます。そして複雑性の話が続きます。。。 ルービックキューブよりも複雑、さらにただの時間の無駄単に明かりを灯し続けるだけ。複数のベンダーを管理する。複数の管理インターフェイスを使う。専門家に頼り切り。週末、金曜日の夜、休日がない?もうこれぐらいにしましょう。3階層とともにもたらされる複雑さは管理のオーバーヘッドを伴うもので、IT部門は新しいより良い運用の方法を模索することになります。スムーズな運用を約束するシステムは単一のインターフェイスから全体の洞察そしてコントロールを保証します。(Cardinal Innovations Healthcare の例にある通り)そして、もちろん日曜日(に限らずもっと!)だって保証してくれます。IT部門のカレンダー予定が空くということはこれらの人々が新しいものを作り上げたり、スキルを伸ばしたり、イノベーティブで有り続けることを意味し

Nutanix AES: 事例によるパフォーマンス

本記事はn0derunnerに2018年12月17日に掲載された記事の日本語ヴァージョンです。 原文を参照したい方はこちら。 データベースの復元にかかる時間を50%も削減する方法は?ロンドンで行われた.Next 2018の最中にNutanixはコアデータパス内でのパフォーマンスの改善をアナウンスしました。これは最大で2倍のパフォーマンス改善をもたらすとのことです。以下では実際の現実世界での改善について例を上げたいと考えています。 X-Rayを利用して1TBのデータを既存のデータベース内に復元する操作をシミュレーションしました。64K,128K,256K,1MBに分割されるとはいえ、IOのサイズは非常に大きなものとなり、1TBのデータセットに対するアクセスパターンは100%ランダムなものとなります。 code:bssplit=64k/20:128k/20:256k/20:512k/20:1m/20 通常、大きなIOサイズを用いたストレージのベンチマークはそれに応じた結果になります。これはストレージのバックエンドでの取扱が比較的簡単なものだからです。最初にかける負荷としては現実的なものとなりますが、今回は100%ランダムなパターンの場合での復元をシミュレーションしたいと考えました。 今回のケースでは1TBを取り込みきるまでの時間は半分になりました。比較の対象となっているのは自律化エクステントストア(Autonomous Extent Store - AES)が有効になったNutanix AOS 5.10と以前の従来からのエクステントストアです。 この改善ははAESによって、エクステントストアへの挿入が直接、より高速に行えるようになったことで実現しました。 スループットが重要になるランダムなワークロードにおいては、AESはoplogをスキップする方が早いかどうかを検知することができます。OplogをスキップすることでAESはリモートのoplogまでのネットワークの往復を削減することができ - 代わりにエクステントストアにRF2のコピーを作るだけになります。これとは反対に継続的に巨大なランダムIOがoplog内に流れ混んでくる場合には、10Gbitネットワークですらもボトルネックになる可能性が出てきます。より高速なネットワークがあ

Xi Leap クラウド災害復旧サービスの最新情報

本記事は2019年5月8日にAparajita Jasが投稿した記事の翻訳版です。 原文を参照したい場合にはこちら。 商用販売を昨年11月に開始し、オンプレミスにホストされているあらゆるアプリケーションむけに簡単に利用できる災害復旧を提供するXi LeapはNutanixの提供するハイブリッドクラウドサービスのメインストリームとなりました。企業は自身の環境をNutanix Xi Cloud Servicesへと完全にオーケストレーションされた災害復旧(DR)ソリューションのために拡張し、オンプレミスのワークロードをセカンダリのデータセンタをセットアップすることなしに保護することができます。お客様はXi Leapを単一のツールと管理構造で利用でき、コスト、複雑さの削減、そして従来からのDRソリューションに紐づく不確かさも取り除くことができます。Leapはネイティブに統合されたDRaaSであり、ビジネス継続を保証するために復旧のオーケストレーションとオンデマンドで停止を伴わない検証機能を提供します。 グローバルで広範に利用可能我々はXi Leapがその災害復旧の能力を現在すでに利用可能な米国西(ベイエリア、カリフォルニア)、米国東(アッシュバーン、バージニア)そして英国(ロンドン)に加えて拡張することをアナウンスできることを大変喜ばしく思います。今後数ヶ月でXi Leapはテレコム・イタリアグループのインターナショナルサービスを提供するSparkle社とNutanixのパートナーシップを通じてイタリアで、そして日本とドイツでも利用可能になります。お客様にはデモのリクエストを通じて、まずサービスがどのように動くのかを見ていただくことができます。2019年7月までに購入を決定いただいた初期のお客様について、我々は魅力的な価格もご用意しております。 AHVとVMware ESXiの両方のワークロードをサポート: 我々はすでにNutanix Xi Cloud Services上でオンプレミスのAHVのワークロードのDRをサポートしています。AOS 5.11のリリースと共に、我々はNutanix Xi Cloud Services上でのESXiのワークロードのDRをサポートいたします。これによって我々の提供する機能は劇的に向上し、Xi Leapはサーバ仮想化ワーク

Badges

Show all badges