
使用するVeeamのバックアップとアーカイブ Ceph
このケーススタディでは、
Mars 400
ceph storage appliance Veeamのバックアップとレプリケーションのバックアップリポジトリとして。
Ceph サポート
object storage、
block storage、およびPOSIX
file systemすべてを1つのクラスターに。バックアップ要件に応じて、お客様はさまざまなストレージプロトコルを選択して、さまざまなストレージバックアップ戦略のニーズをサポートできます。
この記事では、
Ceph
block storage ((
Ceph RBD)および
Ceph
file system ((
Cephfs)をバックアップリポジトリとして使用し、仮想マシンをバックアップするバックアップジョブの期間を比較します。
Hyper-V およびVMWare。
Veeamとを使用したバックアップソリューションアーキテクチャ Ceph
VMWare上の仮想マシンをバックアップするアーキテクチャと Hyper-V似ています。Veeamは、データムーバーを使用して、ソースホストからバックアップリポジトリにデータを転送します。データムーバーは、プロキシサーバーとリポジトリサーバーで実行されます。使用するにはCeph バックアップリポジトリのバックエンドストレージとして、RBDまたは CephFS Linux物理サーバーまたは仮想マシン上でリポジトリサーバーとして。
プロキシサーバーとリポジトリサーバーがハイパーバイザークラスター内の仮想マシンである場合、VMディスク、プロキシサーバー、およびリポジトリサーバー間でネットワークを使用しない高速データ転送を利用できます。大規模なハイパーバイザークラスターの最適な構成は、各VMWareホストに1つのプロキシサーバーVMと1つのリポジトリサーバーVMを展開することです。それ以外の場合は、すべてのVMWareホストに1つのバックアッププロキシVMと1つのオフホストリポジトリホストをデプロイして、本番VMWareからワークロードを削除できます。
を使用する3つの方法があります Ambedded Ceph Veeam BackupandReplicationのリポジトリとしてのアプライアンス。 CephFSおよびRBDblockデバイスは、オンプレミスのバックアップリポジトリとして使用できます。S3object storage リモートロケーションの容量階層として使用できます。
設定方法については Ceph RBD block デバイスと CephFS file system 仮想マシンとファイルをバックアップするためのVeeamのバックアップリポジトリとして、このページの最後にあるホワイトペーパーに詳細が記載されています。
テスト環境
Cephクラスター -
- 三 Mars 400 3倍で monitors、20のOSD、および1x MDS(メタデータサーバー)
- 各 Ceph デーモンは1つのデュアルコアで実行されます Arm A72 microserver
- オペレーティングシステム:CentOS 7
- Ceph ソフトウェア:Nautilus 14.2.9 Arm64
- ネットワーク:4x 10Gbネットワーク/ Mars 400
Veeam Backup&Replication 10、バージョン:10.0.1.4854
Veeamバックアップサーバー
- CPU:Intel Xeon E5-2630 2.3GHz DUAL
- DRAM:64GB
- ネットワーク:2x 10Gb sfp +ボンディング
- ディスク:システム用に1TB、ボリューム用に256GB SATA3 SSD
- Windows Server 2019
Veeamプロキシサーバー
- Veeam BackupServerと併置します
リポジトリサーバー
- 仮想マシン
◇CPU:4コア2.3GHz
◇DRAM:8GB
◇ネットワーク:ブリッジ
◇ディスク:50GB仮想ディスク
◇OS:CentOS 7.8.2003
- ベアメタルサーバー
◇CPU:Intel Xeon X5650 2.67GHz DUAL
◇DRAM:48GB
◇ネットワーク:2ポート10Gb sfp +ボンディング
◇ディスク:システム用1TB
◇OS:CentOS 7.6.1810
Hyper-V ホスト
◇ CPU:Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM:64GB
◇ ネットワーク:2ポート10Gb sfp +ボンディング
◇ ディスク:システム用1TB
◇WindowsServer 2019
VMWareホスト
◇ CPU:Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM:64GB
◇ ネットワーク:2ポート10Gb sfp +ボンディング
◇ ディスク:システム用1TB
◇ ESXi6.5
ネットワーク:10GbEスイッチ
さまざまな設定のベンチマーク
さまざまなバックアップリポジトリのバックアップパフォーマンスをベンチマークするために、さまざまなバックアップリポジトリと3つのバックアップソースを使用してテストを設定しました。
テストに使用するバックアップソースは、サーバー上のSATA SSDベースのボリューム、 Hyper-V、およびVMWareのCentOS 7VMとWindowsVM。
(1)SSDドライブにボリュームをバックアップする
表1.SATASSDを使用してサーバーからボリュームをバックアップします。
ディスクサイズ(処理されたデータ) | 237.9GB |
ソースから読み取られたデータ | 200.1GB |
転送先のデータ Ceph 重複排除と圧縮後 | 69.7GB |
重複排除 | 1.3X |
圧縮 | 2.7X |
表2。
バックアップ リポジトリ | 期間 (秒) | ソース (%) | プロキシ (%) | ネットワーク (%) | ターゲット (%) | 処理 速度(MB /秒) | 平均 データ書き込み 速度(MB /秒) |
Linux VM、 RBD-レプリカ3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM、 CephFS-レプリカ3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM、 RBD、EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM、 CephFS、EC | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Linuxサーバー、 RBD、EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、Ceph これらのバックアップジョブのクラスター。
(2)Windows 10VMをバックアップする Hyper-V HDD上
このベンチマークでは、 Hyper-VSATAハードドライブに保存されているインスタンス。これらのジョブの処理速度は、HDD帯域幅の上限に達します。また、ジョブ期間の99%の間、負荷がビジーであるため、ボトルネックが原因であることがわかります。Ceph Veeamバックアップジョブからのクラスター、ターゲット、ワークロードは軽いです。 Ceph クラスターは、稼働時間の6%から1%でのみビジーです。
以前のベンチマークと比較すると、VMバックアップの処理速度はSSDバックアップよりもはるかに低くなっています。これは主に、VMデータがハードドライブに保存されているためです。
表3。
ディスクサイズ(HDD) | 127GB |
ソースから読み取られたデータ | 37.9GB |
転送先のデータ Ceph 重複排除と圧縮後 | 21.4GB |
重複排除 | 3.3X |
圧縮 | 1.8X |
表4.仮想マシンのバックアップ image SATA3HDDの場合
バックアップ リポジトリ | 期間 (秒) | ソース (%) | プロキシ (%) | ネットワーク (%) | ターゲット (%) | 処理 速度(MB /秒) | 平均 データ書き込み 速度(MB /秒) |
Linux VM、 RBDボリューム、EC | 363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM、 CephFSボリューム、 EC | 377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Linuxサーバー、 RBDボリューム、EC | 375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、Ceph これらのバックアップジョブのクラスター。
(3)HDD上のESXi上の仮想マシンのバックアップ
このテストは、VMWare ESXi6.5ホストのHDDで実行されているCentOS7およびWindows10仮想マシンをバックアップするリポジトリにバックアップします。 Ceph 4 +2のRBD erasure code保護。
表5。
ソース | CentOS VM | Windows 10 VM |
ディスクサイズ(HDD) | 40GB | 32GB |
ソースから読み取られたデータ | 1.8GB | 12.9GB |
転送先のデータ Ceph 重複排除と圧縮後 | 966MB | 7.7GB |
重複排除 | 22.1X | 2.5倍 |
圧縮 | 1.9X | 1.7倍 |
表6。
バックアップ ソース | 期間 (秒) | ソース (%) | プロキシ (%) | ネットワーク (%) | ターゲット (%) | 処理 速度(MB /秒) | 平均 データ書き込み 速度(MB /秒) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
ウィンドウズ10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、Ceph これらのバックアップジョブのクラスター。
結論
テスト結果によると、 Ceph RBDと CephFS同様のパフォーマンスがあります。これは、RBDのベンチマークに関する私たちの経験と一致しています。CephFSパフォーマンス。の特性を比較するCephFSとRBD、それらには長所と短所があります。複数のリポジトリサーバーをデプロイする必要がある場合は、RBDを作成する必要がありますimage マウントしかできないため、バックアップリポジトリサーバーごとに Ceph1つのホスト上のRBD。に比べCephFS、RBDの使用は、メタデータサーバーを必要としないため、より簡単です。作成時にRBD容量サイズを割り当てる必要があるため、より多くのスペースが必要な場合は容量のサイズを変更する必要があります。
使用する場合 CephFS リポジトリとして、少なくとも1つのメタデータサーバー(MDS)を Ceph集まる。高可用性を実現するには、スタンバイメタデータサーバーも必要です。と比較してCeph RBD、あなたは与える必要はありません file systemクォータ。だから、あなたは扱うことができますCephFS 無制限のストレージとして pool。
このユースケースのデモンストレーションでは、テストは各バックアップジョブで1つのVMのみをバックアップします。上記のテストレポートによると、平均データ書き込み速度は、処理速度とデータ重複排除および圧縮効率に関連していることがわかっています。ソースディスクが高速になると、バックアップジョブの時間が短縮され、処理速度が速くなります。ユーザーのインフラストラクチャに応じて、ユーザーは複数の同時ジョブをデプロイして、異なるオブジェクトを同時にバックアップできます。Ceph storage 複数の同時ジョブのサポートに非常に優れています。
20x HDD OSD Ceph 3xを搭載したクラスター Ambedded Mars 400 4 +2に最大700MB /秒の集約書き込みスループットを提供できます erasure code pool。複数の現在のバックアップジョブを展開すると、全体的なバックアップ期間が短縮されるという利点があります。の最大パフォーマンスCeph クラスタは、クラスタ内のディスクドライブの総数にほぼ直線的に比例します。
このユースケースでは、S3を使用してテストしませんでした object storageバックアップリポジトリとして。S3object storageVeeamScale-OutバックアップリポジトリおよびNASバックアップのターゲットアーカイブリポジトリの容量階層として使用できます。RADOSゲートウェイを簡単にセットアップして作成できますobject storage 簡単に使用するユーザー Ambedded UVS manager、 ceph 管理ウェブ GUI。
- ダウンロード
使用する Ceph Veeam Backup&Replicationホワイトペーパーのリポジトリとして
設定方法 Ceph RBD block デバイスと CephFS file system 仮想マシンとファイルをバックアップするためのVeeamのバックアップリポジトリとして
Download- 関連製品
Ceph Storage Appliance
Mars 400
Mars 400 Ceph Storage Applianceは、エンタープライズおよびデータセンター向けのターンキーソフトウェア定義ストレージソリューションです。アプライアンスは統合します...
詳細Mars 400SES SUSE Enterprise Storage アプライアンス
Mars 400SES
Mars400SES SUSE Enterprise Storage アプライアンスはで構成されています ARM microserver ハードウェア、3年 SUSE...
詳細