Veeam-Backup und -Archivierung für die Arbeit mit Ceph

Warum und wie Sie die Ceph Storage Appliance als Repositories für Veeam Backup & Replication verwenden

Warum und wie Sie die Ceph Storage Appliance als Repositories für Veeam Backup & Replication verwenden

Veeam-Backup und -Archivierung für die Arbeit mit Ceph

In dieser Fallstudie wird erläutert, wie die Mars 400 ceph Storage Appliance als Backup-Repositories für Veeam Backup und Replikation verwendet wird.
Ceph unterstützt Objektspeicher, Blockspeicher und das POSIX-Dateisystem in einem Cluster. Je nach Backup-Anforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speicher-Backup-Strategien zu unterstützen.
 
In diesem Artikel verwenden wir Ceph Block Storage (Ceph RBD) und Ceph File System (Cephfs) als Backup-Repositories und vergleichen die Dauer ihrer Backup-Jobs beim Sichern virtueller Maschinen von Hyper-V und VMWare.


Backup-Lösungsarchitektur mit Veeam und Ceph

Die Architektur zum Sichern virtueller Maschinen auf VMWare und Hyper-V ist ähnlich. Veeam verwendet Data Mover, um Daten von Quellhosts in Backup-Repositories zu übertragen. Die Datamover werden auf dem Proxy-Server und dem Repository-Server ausgeführt. Um Ceph als Backend-Speicher eines Backup-Repositorys zu verwenden, können Sie RBD oder CephFS auf einem physischen Linux-Server oder einer virtuellen Maschine als Repository-Server bereitstellen. 

Wenn es sich bei den Proxy- und Repository-Servern um virtuelle Maschinen innerhalb des Hypervisor-Clusters handelt, können Sie die Vorteile einer netzwerkfreien Hochgeschwindigkeits-Datenübertragung zwischen VM-Festplatte, Proxy-Server und dem Repository-Server nutzen. Die beste Konfiguration eines großen Hypervisor-Clusters ist die Bereitstellung einer Proxy-Server-VM und einer Repository-Server-VM auf jedem VMWare-Host. Andernfalls können Sie eine Backup-Proxy-VM auf jedem VMWare-Host und einen Off-Host-Repository-Host bereitstellen, um die Arbeitslast aus Ihrer Produktions-VMWare zu entfernen.

Es gibt drei Möglichkeiten, die Ambedded Ceph-Appliance als Repositories für Veeam Backup and Replication zu verwenden. CephFS- und RBD-Blockgeräte können als lokales Backup-Repository verwendet werden. Der S3-Objektspeicher kann als Kapazitätsebene für einen Remote-Standort verwendet werden.

Wie Sie das Ceph RBD-Blockgerät und das CephFS-Dateisystem als Backup-Repository von Veeam zum Sichern virtueller Maschinen und Dateien einrichten, erfahren Sie im Whitepaper am Ende dieser Seite.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

Testumgebung

Ceph-Cluster

  • Drei Mars 400 mit 3x Monitoren, 20 OSDs und 1x MDS (Metadatenserver)
  • Jeder Ceph-Daemon läuft auf einem Dual-Core-Arm-A72-Mikroserver
  • Betriebssystem: CentOS 7
  • Ceph-Software: Nautilus 14.2.9 Arm64
  • Netzwerk: 4x 10-Gb-Netzwerk pro Mars 400 

Veeam Backup & Replication 10, Version: 10.0.1.4854

Veeam Backup-Server

  • CPU: Intel Xeon E5-2630 2,3 GHz DUAL
  • RAM: 64 GB
  • Netzwerk: 2x 10 Gb sfp+ Bonding
  • Festplatte: 1 TB für System, 256 GB SATA3 SSD für Volume
  • Windows-Server 2019

 Veeam-Proxy-Server

  • mit Veeam Backup Server zusammenarbeiten

 Repository-Server

  • Virtuelle Maschine

◇ CPU: 4 Kerne 2,3 GHz

◇ DRAM: 8 GB

◇ Netzwerk: Brücke

◇ Festplatte: 50 GB virtuelle Festplatte

◇ Betriebssystem: CentOS 7.8.2003

  • Baremetal-Server

◇ CPU: Intel Xeon X5650 2,67 GHz DUAL

◇ RAM: 48 GB

◇ Netzwerk: 2-Port 10 Gb sfp+ Bonding

◇ Festplatte: 1 TB für das System

◇ Betriebssystem: CentOS 7.6.1810

Hyper-V-Host

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   RAM: 64 GB

◇   Netzwerk: 2-Port 10 Gb sfp+ Bonding

◇   Festplatte: 1 TB für das System

◇   Windows-Server 2019

VMWare-Host

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   RAM: 64 GB

◇   Netzwerk: 2-Port 10 Gb sfp+ Bonding

◇   Festplatte: 1 TB für das System

◇   ESXi 6.5

Netzwerk: 10-GbE-Switch

Benchmark auf verschiedenen Setups

Um die Backup-Leistung verschiedener Backup-Repositories zu bewerten, haben wir Tests mit verschiedenen Backup-Repositories und drei Backup-Quellen durchgeführt. 

Sicherungsquellen, die wir für die Tests verwenden, sind ein SATA-SSD-basiertes Volume auf einem Server, eine Windows-VM von Hyper-V sowie eine CentOS 7-VM und eine Windows-VM von VMWare.

(1) Sichern Sie ein Volume auf einem SSD-Laufwerk

Tabelle 1. Sichern Sie ein Volume von einem Server mit einer SATA-SSD.

Festplattengröße (verarbeitete Daten) 237,9 GB
Daten Aus der Quelle gelesen 200,1 GB
Nach der Deduplizierung und Komprimierung an Ceph übertragene Daten 69,7 GB
Deduplizierung 1,3X
Kompression 2,7X


Tabelle 2.

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Proxy
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
Linux-VM,
RBD-Replikat 3
646 83 33 84 21 554 110
Linux-VM,
CephFS-Replikat 3
521 97 25 31 5 564 137
Linux-VM,
RBD, EC
645 82 34 83 24 554 111
Linux-VM,
CephFS, EC
536 97 26 27 4 564 133
Linux-Server,
RBD, EC
526 97 21 16 3 561 136

Hinweis: Die durchschnittlichen Datenschreibraten werden aus den übertragenen Daten dividiert durch die Dauer berechnet. Diese Raten stellen die Workloads des Ceph-Clusters in diesen Backup-Jobs dar.

(2) Sichern Sie eine Windows 10-VM auf Hyper-V auf HDD

In diesem Benchmark sichern wir eine Hyper-V-Instanz, die auf einer SATA-Festplatte gespeichert ist. Die Verarbeitungsraten dieser Jobs erreichen die obere Grenze der HDD-Bandbreite. Wir können auch feststellen, dass der Engpass an der Quelle liegt, da ihre Lasten während 99 % der Auftragsdauer ausgelastet sind. Ceph-Cluster, das Ziel, die Arbeitsbelastung durch die Veeam-Backup-Jobs ist gering. Das Ceph-Cluster ist nur zu 6 % bis 1 % der Arbeitszeit ausgelastet.

Im Vergleich zum vorherigen Benchmark ist die Verarbeitungsrate des VM-Backups deutlich geringer als die des SSD-Backups. Dies liegt hauptsächlich daran, dass die VM-Daten auf einer Festplatte gespeichert werden. 

Tisch 3.

Festplattengröße (HDD) 127 GB
Daten aus Quelle gelesen 37,9 GB

Nach der Deduplizierung und Komprimierung an Ceph übertragene Daten
21,4 GB
Deduplizierung 3,3X
Kompression 1,8X


Tabelle 4. Sichern Sie ein Image einer virtuellen Maschine auf einer SATA3-Festplatte

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Proxy
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
Linux-VM,
RBD-Volume, EC
363 99 7 3 6 145 60
Linux-VM,
CephFS-Volume,
EC
377 99 7 2 1 142 58.1
Linux Server,
RBD-Volume, EC
375 99 6 2 2 140 58.4

Hinweis: Die durchschnittlichen Datenschreibraten werden aus den übertragenen Daten dividiert durch die Dauer berechnet. Diese Raten stellen die Workloads des Ceph-Clusters in diesen Backup-Jobs dar.

(3) Virtuelle Maschinen auf ESXi auf HDD sichern

Dieser Test sichert eine virtuelle Maschine mit CentOS 7 und Windows 10, die auf einer Festplatte eines VMWare ESXi 6.5-Hosts ausgeführt wird, in einem Repository, das von einem Ceph RBD mit 4+2-Löschcodeschutz unterstützt wird. 

Tabelle 5.

Quelle CentOS-VM Windows 10-VM
Festplattengröße (HDD) 40GB 32 GB
Daten aus Quelle gelesen 1,8 GB 12,9 GB

Nach der Deduplizierung und Komprimierung an Ceph übertragene Daten
966 MB 7,7 GB
Deduplizierung 22.1X 2,5X
Kompression 1,9X 1,7X


Tabelle 6.

Sicherungsquelle
_
Dauer
(Sek.)
Quelle
(%)
Proxy
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
CentOS 7 122 99 10 5 0 88 8
Windows 10 244 99 11 5 1 93 32

Hinweis: Die durchschnittlichen Datenschreibraten werden aus den übertragenen Daten dividiert durch die Dauer berechnet. Diese Raten stellen die Workloads des Ceph-Clusters in diesen Backup-Jobs dar.

Schlussfolgerungen

Den Testergebnissen zufolge weisen Ceph RBD und CephFS eine ähnliche Leistung auf. Dies entspricht unserer Erfahrung in Bezug auf den Benchmark der RBD- und CephFS-Leistung. Vergleicht man die Eigenschaften von CephFS und RBD, haben sie ihre Vor- und Nachteile. Wenn Sie mehrere Repository-Server bereitstellen müssen, müssen Sie für jeden Backup-Repository-Server ein RBD-Image erstellen, da Sie Ceph RBD nur auf einem Host bereitstellen können. Im Vergleich zu CephFS ist die Verwendung von RBD einfacher, da keine Metadatenserver benötigt werden. Wir müssen die RBD-Kapazitätsgröße bei der Erstellung zuweisen, sodass Sie die Kapazität anpassen müssen, wenn Sie mehr Speicherplatz benötigen.

Wenn Sie CephFS als Repository verwenden, müssen Sie mindestens einen Metadatenserver (MDS) im Ceph-Cluster bereitstellen. Außerdem benötigen wir einen Standby-Metadatenserver für Hochverfügbarkeit. Im Vergleich zum Ceph RBD müssen Sie dem Dateisystem kein Kontingent zuweisen. Sie können das CephFS also als unbegrenzten Speicherpool behandeln.

In dieser Anwendungsfalldemonstration sichern unsere Tests nur eine VM in jedem Sicherungsjob. Gemäß den obigen Testberichten wissen wir, dass die durchschnittliche Datenschreibrate mit der Verarbeitungsrate und der Datendeduplizierungs- und Komprimierungseffizienz zusammenhängt. Eine schnellere Quellfestplatte verkürzt die Dauer des Backup-Jobs und führt zu einer schnelleren Verarbeitungsrate. Abhängig von der Infrastruktur der Benutzer können Benutzer mehrere gleichzeitige Jobs bereitstellen, um verschiedene Objekte gleichzeitig zu sichern. Ceph Storage ist sehr gut darin, mehrere gleichzeitige Jobs zu unterstützen. 

Ein 20x HDD OSD Ceph-Cluster mit 3x Ambedded Mars 400 kann einen aggregierten Schreibdurchsatz von bis zu 700 MB/s für den 4+2-Löschcode-Pool bieten. Das Bereitstellen mehrerer aktueller Backup-Jobs hat den Vorteil, dass die Gesamtdauer des Backups verkürzt wird. Die maximale Leistung eines Ceph-Clusters ist nahezu linear proportional zur Gesamtzahl der Laufwerke im Cluster.

In diesem Anwendungsfall haben wir die Verwendung von S3-Objektspeicher als Backup-Repository nicht getestet. S3-Objektspeicher kann als Kapazitätsebene im Veeam Scale-Out-Backup-Repository und als Zielarchiv-Repository für NAS-Backups verwendet werden. Sie können ganz einfach ein RADOS-Gateway einrichten und Objektspeicherbenutzer einfach mit dem Ambedded UVS-Manager, der ceph-Verwaltungs-Web-GUI, erstellen.

Download
Verwenden Sie Ceph als Repository für das Whitepaper zu Veeam Backup & Replication
Verwenden Sie Ceph als Repository für das Whitepaper zu Veeam Backup & Replication

So richten Sie das Ceph RBD-Blockgerät und das CephFS-Dateisystem als Backup-Repository von Veeam zum Sichern virtueller Maschinen und Dateien ein

Download
Verwandte Produkte
Ceph Storage-Appliance - Ceph Storage Appliance Mars 400 Vorderseite.
Ceph Storage-Appliance
Mars400PRO

UniVirStor ist eine ceph-basierte Software Defined Storage Appliance. Die eingebettete Ceph-Speicher-Appliance integriert die abgestimmte Ceph-Software,...

Einzelheiten
Mars 400SES SUSE Enterprise Storage Appliance - Mars 400SES SUSE Enterprise Storage 6 (Nautilus)-Appliance.
Mars 400SES SUSE Enterprise Storage Appliance
Mars 400SES

Mars400SES SUSE Enterprise Storage Appliance besteht aus ARM-Microserver-Hardware, 3 Jahren Abonnement für SUSE Enterprise Storage und SUSE Linux Enterprise...

Einzelheiten

Ambedded – Eine professionelle Ceph-Speicherlösung auf dem Markt.

Befindet sich in Taiwanseit 2013,Ambedded Technology Co., LTD.ist ein Anbieter von Speicherlösungen von Ceph, der ARM-basierte softwaredefinierte Speichergeräte mit 60 % CapEX-Einsparung, 70 % weniger Stromverbrauch und 100 % Skalierungsvorteilen anbietet.

Für das Design und die Herstellung von softwaredefiniertem Speicher verfügt das Ambedded-Team über umfassende Erfahrung, um Kunden bei der Einführung der ceph-Lösung in vielseitigen Branchen wie Telekommunikation, Medizin, Militär, Edge-Rechenzentren und HA-erforderliche Unternehmensspeicher zu unterstützen.

Ambedded bietet seinen Kunden seit 2013 Ceph-Speicherlösungen an, sowohl fortschrittliche Technologie als auch 20 Jahre Erfahrung. Ambedded stellt sicher, dass die Anforderungen jedes Kunden erfüllt werden.