
Cephで動作するVeeamのバックアップとアーカイブ
このケーススタディでは、Mars400cephストレージアプライアンスをVeeamのバックアップとレプリケーションのバックアップリポジトリとして使用する方法について説明します。
Cephは、オブジェクトストレージ、ブロックストレージ、およびPOSIXファイルシステムをすべて1つのクラスターでサポートします。バックアップ要件に応じて、お客様はさまざまなストレージプロトコルを選択して、さまざまなストレージバックアップ戦略のニーズをサポートできます。
この記事では、Cephブロックストレージ(Ceph RBD)とCephファイルシステム(Cephfs)をバックアップリポジトリとして使用し、Hyper-VとVMWareから仮想マシンをバックアップする際のバックアップジョブ期間を比較します。
VeeamとCephを使用したバックアップソリューションアーキテクチャ
VMWareとHyper-Vで仮想マシンをバックアップするアーキテクチャは似ています。Veeamは、データムーバーを使用して、ソースホストからバックアップリポジトリにデータを転送します。データムーバーは、プロキシサーバーとリポジトリサーバーで実行されます。Cephをバックアップリポジトリのバックエンドストレージとして使用するには、RBDまたはCephFSをLinux物理サーバーまたは仮想マシンにリポジトリサーバーとしてマウントします。
プロキシサーバーとリポジトリサーバーがハイパーバイザークラスター内の仮想マシンである場合、VMディスク、プロキシサーバー、およびリポジトリサーバー間でネットワークを使用しない高速データ転送を利用できます。大規模なハイパーバイザークラスターの最適な構成は、各VMWareホストに1つのプロキシサーバーVMと1つのリポジトリサーバーVMを展開することです。それ以外の場合は、すべてのVMWareホストに1つのバックアッププロキシVMをデプロイし、1つのオフホストリポジトリホストをデプロイして、運用VMWareからワークロードを削除できます。
AmbeddedCephアプライアンスをVeeamBackupandReplicationのリポジトリとして使用する方法は3つあります。CephFSおよびRBDブロックデバイスは、オンプレミスのバックアップリポジトリとして使用できます。S3オブジェクトストレージは、リモートロケーションの容量階層として使用できます。
仮想マシンとファイルをバックアップするためのVeeamのバックアップリポジトリとしてCephRBDブロックデバイスとCephFSファイルシステムを設定する方法については、このページの最後にあるホワイトペーパーで詳細を確認できます。
テスト環境
Ceph Cluster
- 3xモニター、20 OSD、および1x MDS(メタデータサーバー)を備えた3つのMars 400
- 各Cephデーモンは、1つのデュアルコアArmA72マイクロサーバーで実行されます
- オペレーティングシステム:CentOS 7
- Cephソフトウェア:Nautilus 14.2.9 Arm64
- ネットワーク:火星400あたり4x10Gbネットワーク
Veeam Backup&Replication 10、バージョン:10.0.1.4854
Veeamバックアップサーバー
- CPU:Intel Xeon E5-2630 2.3GHz DUAL
- DRAM:64GB
- ネットワーク:2x 10Gbsfp+ボンディング
- ディスク:システム用に1TB、ボリューム用に256GB SATA3 SSD
- Windows Server 2019
Veeamプロキシサーバー
- VeeamBackupServerと併置
リポジトリサーバー
- 仮想マシン
◇CPU:4コア2.3GHz
◇DRAM:8GB
◇ネットワーク:ブリッジ
◇ディスク:50GB仮想ディスク
◇OS:CentOS 7.8.2003
- ベアメタルサーバー
◇CPU:Intel Xeon X5650 2.67GHz DUAL
◇DRAM:48GB
◇ネットワーク:2ポート10Gbsfp+ボンディング
◇ディスク:システム用1TB
◇OS:CentOS 7.6.1810
Hyper-Vホスト
◇ CPU:Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM:64GB
◇ ネットワーク:2ポート10Gbsfp+ボンディング
◇ ディスク:システム用1TB
◇ WindowsServer2019
VMWareホスト
◇ CPU:Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM:64GB
◇ ネットワーク:2ポート10Gbsfp+ボンディング
◇ ディスク:システム用1TB
◇ ESXi6.5
ネットワーク:10GbEスイッチ
さまざまなセットアップのベンチマーク
さまざまなバックアップリポジトリのバックアップパフォーマンスをベンチマークするために、さまざまなバックアップリポジトリと3つのバックアップソースを使用してテストを設定しました。
テストに使用するバックアップソースは、サーバー上のSATA SSDベースのボリューム、Hyper-VのWindows VM、およびVMWareのCentOS7VMとWindowsVMです。
(1)SSDドライブにボリュームをバックアップする
表1.SATASSDを使用してサーバーからボリュームをバックアップします。
ディスクサイズ(処理されたデータ) | 237.9GB |
ソースから読み取られたデータ | 200.1GB |
重複排除と圧縮後にCephに転送されたデータ | 69.7GB |
重複排除 | 1.3X |
圧縮 | 2.7X |
表2。
バックアップ リポジトリ | 期間 (秒) | ソース (%) | プロキシ (%) | ネットワーク (%) | ターゲット (%) | 処理 速度(MB /秒) | 平均 データ書き込み 速度(MB /秒) |
Linux VM、 RBD-レプリカ3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM、 CephFS-レプリカ3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM、 RBD、EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM、 CephFS、EC | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Linuxサーバー、 RBD、EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、これらのバックアップジョブにおけるCephクラスターのワークロードを表します。
(2)HDD上のHyper-VでWindows10VMをバックアップします
このベンチマークでは、SATAハードドライブに保存されているHyper-Vインスタンスをバックアップします。これらのジョブの処理速度は、HDD帯域幅の上限に達します。また、ジョブ期間の99%の間、負荷がビジーであるため、ボトルネックが原因であることがわかります。VeeamバックアップジョブからのターゲットであるCephクラスターのワークロードは軽いです。Cephクラスターは、稼働時間の6%から1%でのみビジーです。
以前のベンチマークと比較して、VMバックアップの処理速度はSSDバックアップよりもはるかに低くなっています。これは主に、VMデータがハードドライブに保存されているためです。
表3。
ディスクサイズ(HDD) | 127GB |
ソースから読み取られたデータ | 37.9GB |
重複排除と圧縮後にCephに転送されたデータ | 21.4GB |
重複排除 | 3.3X |
圧縮 | 1.8X |
表4.SATA3HDD上の仮想マシンイメージのバックアップ
バックアップ リポジトリ | 期間 (秒) | ソース (%) | プロキシ (%) | ネットワーク (%) | ターゲット (%) | 処理 速度(MB /秒) | 平均 データ書き込み 速度(MB /秒) |
Linux VM、 RBDボリューム、EC | 363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM、 CephFSボリューム、 EC | 377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Linuxサーバー、 RBDボリューム、EC | 375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、これらのバックアップジョブにおけるCephクラスターのワークロードを表します。
(3)HDD上のESXi上の仮想マシンのバックアップ
このテストは、VMWare ESXi6.5ホストのHDDで実行されているCentOS7およびWindows10仮想マシンを、4+2イレイジャーコード保護を備えたCephRBDによってバックアップされたリポジトリにバックアップします。
表5。
ソース | CentOS VM | Windows 10 VM |
ディスクサイズ(HDD) | 40GB | 32GB |
ソースから読み取られたデータ | 1.8GB | 12.9GB |
重複排除と圧縮後にCephに転送されたデータ | 966MB | 7.7GB |
重複排除 | 22.1X | 2.5X |
圧縮 | 1.9X | 1.7倍 |
表6。
バックアップ ソース | 期間 (秒) | ソース (%) | プロキシ (%) | ネットワーク (%) | ターゲット (%) | 処理 速度(MB /秒) | 平均 データ書き込み 速度(MB /秒) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
ウィンドウズ10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、これらのバックアップジョブにおけるCephクラスターのワークロードを表します。
結論
テスト結果によると、CephRBDとCephFSのパフォーマンスは類似しています。これは、RBDとCephFSのパフォーマンスのベンチマークに関する私たちの経験を満たしています。CephFSとRBDの特性を比較すると、長所と短所があります。複数のリポジトリサーバーをデプロイする必要がある場合は、Ceph RBDを1つのホストにしかマウントできないため、バックアップリポジトリサーバーごとにRBDイメージを作成する必要があります。CephFSと比較すると、メタデータサーバーを必要としないため、RBDの使用は簡単です。作成時にRBD容量サイズを割り当てる必要があるため、より多くのスペースが必要な場合は容量のサイズを変更する必要があります。
CephFSをリポジトリーとして使用する場合は、Cephクラスターに少なくとも1つのメタデータサーバー(MDS)をデプロイする必要があります。高可用性を実現するには、スタンバイメタデータサーバーも必要です。Ceph RBDと比較すると、ファイルシステムに割り当てを与える必要はありません。したがって、CephFSを無制限のストレージプールとして扱うことができます。
このユースケースのデモンストレーションでは、テストは各バックアップジョブで1つのVMのみをバックアップします。上記のテストレポートによると、平均データ書き込み速度は、処理速度とデータ重複排除および圧縮効率に関連していることがわかります。ソースディスクが高速になると、バックアップジョブの時間が短縮され、処理速度が速くなります。ユーザーのインフラストラクチャに応じて、ユーザーは複数の同時ジョブをデプロイして、異なるオブジェクトを同時にバックアップできます。Cephストレージは、複数の同時ジョブをサポートするのに非常に優れています。
3x AmbeddedMars400を搭載した20xHDDOSD Cephクラスターは、4+2イレイジャーコードプールへの最大700MB/秒の集約書き込みスループットを提供できます。複数の現在のバックアップジョブを展開すると、全体的なバックアップ期間を短縮できるという利点があります。Cephクラスターの最大パフォーマンスは、クラスター内のディスクドライブの総数にほぼ直線的に比例します。
このユースケースでは、バックアップリポジトリとしてS3オブジェクトストレージを使用してテストしていません。S3オブジェクトストレージは、VeeamScale-OutバックアップリポジトリおよびNASバックアップのターゲットアーカイブリポジトリの容量階層として使用できます。Ambedded UVSマネージャー(ceph管理Web GUI)を使用して、RADOSゲートウェイを簡単にセットアップし、オブジェクトストレージユーザーを簡単に作成できます。
- ダウンロード
Use Ceph as the repository for Veeam Backup & Replication white paper
How to set up the Ceph RBD block device and the CephFS file system as the backup repository of Veeam for backing up virtual machines and files
Download- 関連製品
Cephストレージアプライアンス
火星400PRO
UniVirStorは、cephベースのソフトウェア定義ストレージアプライアンスです。Ambedded Cephストレージアプライアンスは、調整されたCephソフトウェア、Web...
詳細Mars400SESSUSEエンタープライズストレージアプライアンス
火星400SES
Mars400SES SUSE Enterprise Storage Applianceは、ARMマイクロサーバーハードウェア、3年間のSUSEEnterpriseStorageおよびSUSELinuxEnterprise...
詳細