使用するVeeamのバックアップとアーカイブ Ceph / Ambedded 2013年に設立された才能あるチームは ARM ベースのソフトウェアディファインドストレージアプライアンスの設計と製造。

Ambedded 使用するVeeamのバックアップとアーカイブ Ceph 前書き。 Ambedded 2013年に設立された才能あるチームは ARM ベースのソフトウェアディファインドストレージアプライアンスの設計と製造。 Ambedded オファー Ceph storage を含む市場へのソリューション Ceph storage Appliance オン ARM マイクロサーバーと SUSE Enterprise Storage アプライアンスオン ARMマイクロサーバー。に加えて Ceph 解決、 Ambedded 包括的なも提供しています Ceph 経験の浅いユーザーがためらうことなくこの新しいテクノロジーを採用するのを助けるための、顧客へのソフトウェアサポート。

service@ambedded.com.tw

営業時間:午前9時から午後6時

使用する理由と方法
Ceph Storage Appliance Veeam Backup&Replicationのリポジトリとして

使用するVeeamのバックアップとアーカイブ Ceph

このケーススタディでは、
Mars 400
ceph storage appliance Veeamのバックアップとレプリケーションのバックアップリポジトリとして。

Ceph サポート
object storage、
block storage、およびPOSIX
file systemすべてを1つのクラスターに。バックアップ要件に応じて、お客様はさまざまなストレージプロトコルを選択して、さまざまなストレージバックアップ戦略のニーズをサポートできます。


この記事では、
Ceph
block storage ((
Ceph RBD)および
Ceph
file system ((
Cephfs)をバックアップリポジトリとして使用し、仮想マシンをバックアップするバックアップジョブの期間を比較します。
Hyper-V およびVMWare。


Veeamとを使用したバックアップソリューションアーキテクチャ Ceph

VMWare上の仮想マシンをバックアップするアーキテクチャと Hyper-V似ています。Veeamは、データムーバーを使用して、ソースホストからバックアップリポジトリにデータを転送します。データムーバーは、プロキシサーバーとリポジトリサーバーで実行されます。使用するにはCeph バックアップリポジトリのバックエンドストレージとして、RBDまたは CephFS Linux物理サーバーまたは仮想マシン上でリポジトリサーバーとして。 

プロキシサーバーとリポジトリサーバーがハイパーバイザークラスター内の仮想マシンである場合、VMディスク、プロキシサーバー、およびリポジトリサーバー間でネットワークを使用しない高速データ転送を利用できます。大規模なハイパーバイザークラスターの最適な構成は、各VMWareホストに1つのプロキシサーバーVMと1つのリポジトリサーバーVMを展開することです。それ以外の場合は、すべてのVMWareホストに1つのバックアッププロキシVMをデプロイし、1つのオフホストリポジトリホストをデプロイして、本番VMWareからワークロードを削除できます。

を使用する3つの方法があります Ambedded Ceph Veeam BackupandReplicationのリポジトリとしてのアプライアンス。 CephFSおよびRBDblockデバイスは、オンプレミスのバックアップリポジトリとして使用できます。S3object storage リモートロケーションの容量階層として使用できます。

設定方法については Ceph RBD block デバイスと CephFS file system 仮想マシンとファイルをバックアップするためのVeeamのバックアップリポジトリとして、このページの最後にあるホワイトペーパーに詳細が記載されています。


Veeamプロキシサーバーとリポジトリサーバーはハイパーバイザークラスター内の仮想マシンであり、RBDとcephfsを提供するMars 400cephストレージを備えています
大規模なハイパーバイザークラスターは、各VMWareホストに1つのプロキシサーバーVMと1つのリポジトリサーバーVMを展開し、cephRBDまたはcephfsに保存するバックアップデータを用意します

テスト環境

Cephクラスター -

  • 三 Mars 400 3倍で monitors、20のOSD、および1x MDS(メタデータサーバー)
  • 各 Ceph デーモンは1つのデュアルコアで実行されます Arm A72 microserver
  • オペレーティングシステム:CentOS 7
  • Ceph ソフトウェア:Nautilus 14.2.9 Arm64
  • ネットワーク:1つあたり4x10Gbネットワーク Mars 400 

Veeam Backup&Replication 10、バージョン:10.0.1.4854

Veeamバックアップサーバー

  • CPU:Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM:64GB
  • ネットワーク:2x 10Gb sfp +ボンディング
  • ディスク:システム用に1TB、ボリューム用に256GB SATA3 SSD
  • Windows Server 2019

 Veeamプロキシサーバー

  • Veeam BackupServerと併置します

 リポジトリサーバー

  • 仮想マシン

◇CPU:4コア2.3GHz

◇DRAM:8GB

◇ネットワーク:ブリッジ

◇ディスク:50GB仮想ディスク

◇OS:CentOS 7.8.2003

  • ベアメタルサーバー

◇CPU:Intel Xeon X5650 2.67GHz DUAL

◇DRAM:48GB

◇ネットワーク:2ポート10Gb sfp +ボンディング

◇ディスク:システム用1TB

◇OS:CentOS 7.6.1810

Hyper-V ホスト

◇   CPU:Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM:64GB

◇  ネットワーク:2ポート10Gb sfp +ボンディング

◇  ディスク:システム用1TB

◇WindowsServer   2019

VMWareホスト

◇   CPU:Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM:64GB

◇  ネットワーク:2ポート10Gb sfp +ボンディング

◇  ディスク:システム用1TB

◇   ESXi6.5

ネットワーク:10GbEスイッチ

さまざまなセットアップのベンチマーク

さまざまなバックアップリポジトリのバックアップパフォーマンスをベンチマークするために、さまざまなバックアップリポジトリと3つのバックアップソースを使用してテストを設定しました。 

テストに使用するバックアップソースは、サーバー上のSATA SSDベースのボリューム、 Hyper-V、およびVMWareのCentOS 7VMとWindowsVM。

(1)SSDドライブにボリュームをバックアップする

表1.SATASSDを使用してサーバーからボリュームをバックアップします。

ディスクサイズ(処理されたデータ)237.9GB
ソースから読み取られたデータ200.1GB
転送先のデータ Ceph 重複排除と圧縮後69.7GB
重複排除1.3X
圧縮2.7X


表2。

バックアップ
リポジトリ
期間
(秒)
ソース
(%)
プロキシ
(%)
ネットワーク
(%)
ターゲット
(%)
処理
速度(MB /秒)
平均
データ書き込み
速度(MB /秒)
Linux VM、
RBD-レプリカ3
64683338421554110
Linux VM、
CephFS-レプリカ3
5219725315564137
Linux VM、
RBD、EC
64582348324554111
Linux VM、
CephFS、EC
5369726274564133
Linuxサーバー、
RBD、EC
5269721163561136

注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、Ceph これらのバックアップジョブのクラスター。

(2)Windows 10VMをバックアップする Hyper-V  HDD上

このベンチマークでは、 Hyper-VSATAハードドライブに保存されているインスタンス。これらのジョブの処理速度は、HDD帯域幅の上限に達します。また、ジョブ期間の99%の間、負荷がビジーであるため、ボトルネックが原因であることがわかります。Ceph Veeamバックアップジョブからのクラスター、ターゲット、ワークロードは軽いです。 Ceph クラスターは、稼働時間の6%から1%でのみビジーです。

以前のベンチマークと比較すると、VMバックアップの処理速度はSSDバックアップよりもはるかに低くなっています。これは主に、VMデータがハードドライブに保存されているためです。 

表3。

ディスクサイズ(HDD)127GB
ソースから読み取られたデータ37.9GB
転送先のデータ Ceph
重複排除と圧縮後
21.4GB
重複排除3.3X
圧縮1.8X


表4.仮想マシンのバックアップ image SATA3HDDの場合

バックアップ
リポジトリ
期間
(秒)
ソース
(%)
プロキシ
(%)
ネットワーク
(%)
ターゲット
(%)
処理
速度(MB /秒)
平均
データ書き込み
速度(MB /秒)
Linux VM、
RBDボリューム、EC
3639973614560
Linux VM、
CephFSボリューム、
EC
3779972114258.1
Linuxサーバー、
RBDボリューム、EC
3759962214058.4

注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、Ceph これらのバックアップジョブのクラスター。

(3)HDD上のESXi上の仮想マシンのバックアップ

このテストでは、VMWare ESXi6.5ホストのHDDで実行されているCentOS7およびWindows10仮想マシンを、 Ceph 4 +2のRBD erasure code保護。 

表5。

ソースCentOS VMWindows 10 VM
ディスクサイズ(HDD)40GB32GB
ソースから読み取られたデータ1.8GB12.9GB
転送先のデータ Ceph
重複排除と圧縮後
966MB7.7GB
重複排除22.1X2.5倍
圧縮1.9X1.7倍


表6。

バックアップ
ソース
期間
(秒)
ソース
(%)
プロキシ
(%)
ネットワーク
(%)
ターゲット
(%)
処理
速度(MB /秒)
平均
データ書き込み
速度(MB /秒)
CentOS 7122991050888
ウインドウズ102449911519332

注:平均データ書き込み速度は、転送されたデータを期間で割って計算されます。これらのレートは、Ceph これらのバックアップジョブのクラスター。

結論

テスト結果によると、 Ceph RBDと CephFS同様のパフォーマンスがあります。これは、RBDのベンチマークに関する私たちの経験と一致しています。CephFSパフォーマンス。の特性を比較するCephFSとRBD、それらには長所と短所があります。複数のリポジトリサーバーをデプロイする必要がある場合は、RBDを作成する必要がありますimage マウントしかできないため、バックアップリポジトリサーバーごとに Ceph1つのホスト上のRBD。に比べCephFS、RBDの使用は、メタデータサーバーを必要としないため、より簡単です。作成時にRBD容量サイズを割り当てる必要があるため、より多くのスペースが必要な場合は容量のサイズを変更する必要があります。

使用する場合 CephFS リポジトリとして、少なくとも1つのメタデータサーバー(MDS)を Ceph集まる。高可用性を実現するには、スタンバイメタデータサーバーも必要です。と比較してCeph RBD、あなたは与える必要はありません file systemクォータ。だから、あなたは扱うことができますCephFS 無制限のストレージとして pool。

このユースケースのデモンストレーションでは、テストは各バックアップジョブで1つのVMのみをバックアップします。上記のテストレポートによると、平均データ書き込み速度は、処理速度とデータ重複排除および圧縮効率に関連していることがわかっています。ソースディスクが高速になると、バックアップジョブの期間が短縮され、処理速度が速くなります。ユーザーのインフラストラクチャに応じて、ユーザーは複数の同時ジョブをデプロイして、異なるオブジェクトを同時にバックアップできます。Ceph storage 複数の同時ジョブのサポートに非常に優れています。 

20x HDD OSD Ceph 3xを搭載したクラスター Ambedded Mars 400 4 +2に最大700MB /秒の集約書き込みスループットを提供できます erasure code pool。複数の現在のバックアップジョブを展開すると、全体的なバックアップ期間が短縮されるという利点があります。の最大パフォーマンスCeph クラスタは、クラスタ内のディスクドライブの総数にほぼ直線的に比例します。

このユースケースでは、S3を使用してテストしませんでした object storageバックアップリポジトリとして。S3object storageVeeamScale-OutバックアップリポジトリおよびNASバックアップのターゲットアーカイブリポジトリの容量階層として使用できます。RADOSゲートウェイを簡単にセットアップして作成できますobject storage 簡単に使用するユーザー Ambedded UVS manager、 ceph 管理ウェブ GUI。

ダウンロード
使用する
Ceph Veeam Backup&Replicationホワイトペーパーのリポジトリとして
使用する Ceph Veeam Backup&Replicationホワイトペーパーのリポジトリとして

設定方法 Ceph RBD block デバイスと CephFS file system 仮想マシンとファイルをバックアップするためのVeeamのバックアップリポジトリとして

Download
関連製品
Ceph Storage Appliance - Ceph Storage Appliance
Mars 400 前面。
Ceph Storage Appliance
Mars 400

Mars 400 Ceph Storage Applianceは、エンタープライズおよびデータセンター向けのターンキーソフトウェアディファインドストレージソリューションです。アプライアンスは統合します...

詳細
Mars 400SES
SUSE Enterprise Storage アプライアンス - Mars 400SES
SUSE Enterprise Storage 6(ノーチラス)アプライアンス。
Mars 400SES SUSE Enterprise Storage アプライアンス
Mars 400SES

Mars400SES SUSE Enterprise Storage アプライアンスはで構成されています ARM microserver ハードウェア、3年 SUSE...

詳細

Ambedded 使用するVeeamのバックアップとアーカイブ Ceph 前書き

Ambedded Technology Co., LTD. は、分散型クラウドストレージおよびコンピューティングプロバイダーの台湾のサプライヤーおよびメーカーです。 Ambedded お客様に高品質を提供してきました Ceph 集まる、 Ceph storage appliance、 SUSE Enterprise Storage、 ARM ストレージ、Kubernetesストレージ、ソフトウェアディファインドストレージ、 ARM サーバ、 SUSE 3年間のサブスクリプション、分散ストレージ ARM、開始 ceph 2013年以降、3x 1Uシャーシでクラスター化。高度なテクノロジーと20年の経験の両方を備え、 Ambedded 常に各顧客の要求を満たすようにしてください。