Veeam Backup und Archiv für die Zusammenarbeit mit Ceph / Die Ceph-Speicher-Appliance integriert einen abgestimmten Software-Stack und einen speziell entwickelten Arm-Server, der herausragende Leistung, Zuverlässigkeit, Web-Benutzeroberfläche und Reduzierung der Gesamtbetriebskosten bietet.

In dieser Fallstudie wird erläutert, wie Sie die Mars 400 ceph Storage Appliance als Backup-Repository für Backup und Replikation von Veeam verwenden. Ceph unterstützt Objektspeicher, Blockspeicher und das POSIX-Dateisystem in einem Cluster. Je nach Backup-Anforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speicher-Backup-Strategien zu unterstützen. In diesem Artikel verwenden wir Ceph-Blockspeicher (Ceph RBD) und Ceph-Dateisystem (Cephfs) als Backup-Repositorys und vergleichen ihre Backup-Auftragsdauern beim Sichern virtueller Maschinen von Hyper-V und VMWare. Mit mehr als 20 Jahren Software-Defined-Storage-Erfahrung, Ambedded mit dem talentierten Team, das Erfahrung in der Entwicklung und Herstellung von ARM-basierten Software-Defined-Storage-Appliances hat.

service@ambedded.com.tw

Öffnungszeiten: 9-18 Uhr

Warum und wie Sie die Ceph Storage Appliance als Repositories von Veeam Backup & Replication verwenden

Veeam Backup und Archiv für die Zusammenarbeit mit Ceph

In dieser Fallstudie wird erläutert, wie Sie die Mars 400 ceph Storage Appliance als Backup-Repository für Backup und Replikation von Veeam verwenden.
Ceph unterstützt Objektspeicher, Blockspeicher und das POSIX-Dateisystem in einem Cluster. Je nach Backup-Anforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speicher-Backup-Strategien zu unterstützen.
 
In diesem Artikel verwenden wir Ceph-Blockspeicher (Ceph RBD) und Ceph-Dateisystem (Cephfs) als Backup-Repositorys und vergleichen ihre Backup-Auftragsdauern beim Sichern virtueller Maschinen von Hyper-V und VMWare.


Architektur der Backup-Lösung mit Veeam und Ceph

Die Architektur zum Sichern virtueller Maschinen auf VMWare und Hyper-V ist ähnlich. Veeam verwendet Data Mover, um Daten von Quellhosts in Backup-Repositorys zu übertragen. Die Data Mover laufen auf dem Proxy-Server und dem Repository-Server. Um Ceph als Back-End-Speicher eines Backup-Repositorys zu verwenden, können Sie RBD oder CephFS auf einem physischen Linux-Server oder einer virtuellen Maschine als Repository-Server mounten. 

Wenn es sich bei den Proxy- und Repository-Servern um virtuelle Maschinen innerhalb des Hypervisor-Clusters handelt, können Sie den netzwerkfreien Hochgeschwindigkeitsdatentransport zwischen VM-Festplatte, Proxy-Server und Repository-Server nutzen. Die beste Konfiguration eines großen Hypervisor-Clusters besteht darin, auf jedem VMWare-Host eine Proxy-Server-VM und eine Repository-Server-VM bereitzustellen. Andernfalls können Sie eine Backup-Proxy-VM auf jedem VMWare-Host und einen Off-Host-Repository-Host bereitstellen, um die Arbeitslast von Ihrer Produktions-VMWare zu entfernen.

Es gibt drei Möglichkeiten, die Ambedded Ceph-Appliance als Repositorys für Veeam Backup and Replication zu verwenden. CephFS- und RBD-Blockgeräte können als lokales Backup-Repository verwendet werden. Der S3-Objektspeicher kann als Kapazitätsebene für einen Remotestandort verwendet werden.

Wie Sie das Ceph-RBD-Blockgerät und das CephFS-Dateisystem als Backup-Repository von Veeam zum Sichern von virtuellen Maschinen und Dateien einrichten, finden Sie im Whitepaper am Ende dieser Seite.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

Testumgebung

Ceph-Cluster

  • Drei Mars 400 mit 3x Monitoren, 20 OSDs und 1x MDS (Metadatenserver)
  • Jeder Ceph-Daemon läuft auf einem Dual-Core-Arm A72-Mikroserver
  • Betriebssystem: CentOS 7
  • Ceph-Software: Nautilus 14.2.9 Arm64
  • Netzwerk: 4x 10Gb Netzwerk pro Mars 400 

Veeam Backup & Replication 10, Version: 10.0.1.4854

Veeam Backup-Server

  • CPU: Intel Xeon E5-2630 2,3 GHz DUAL
  • DRAM: 64GB
  • Netzwerk: 2x 10Gb sfp+ Bonding
  • Festplatte: 1 TB für System, 256 GB SATA3-SSD für Volume
  • Windows Server 2019

 Veeam Proxy-Server

  • Kollokation mit Veeam Backup Server

 Repository-Server

  • Virtuelle Maschine

◇ CPU: 4 Kerne 2,3 GHz

◇ DRAM: 8 GB

◇ Netzwerk: Brücke

◇ Festplatte: 50 GB virtuelle Festplatte

Betriebssystem: CentOS 7.8.2003

  • Baremetal-Server

◇ CPU: Intel Xeon X5650 2,67 GHz DUAL

◇ DRAM: 48 GB

◇ Netzwerk: 2-Port 10Gb sfp+ Bonding

◇ Festplatte: 1 TB für System

◇ Betriebssystem: CentOS 7.6.1810

Hyper-V-Host

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Netzwerk: 2-Port 10Gb sfp+ Bonding

◇   Festplatte: 1 TB für System

◇   Windows Server 2019

VMWare-Host

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Netzwerk: 2-Port 10Gb sfp+ Bonding

◇   Festplatte: 1 TB für System

◇   ESXi 6.5

Netzwerk: 10GbE-Switch

Benchmark für verschiedene Setups

Um die Backup-Performance verschiedener Backup-Repositorys zu vergleichen, haben wir Tests mit verschiedenen Backup-Repositorys und drei Backup-Quellen eingerichtet. 

Backup-Quellen, die wir für die Tests verwenden, sind ein SATA-SSD-basiertes Volume auf einem Server, eine Windows-VM von Hyper-V und eine CentOS 7-VM und eine Windows-VM von VMWare.

(1)Sichern Sie ein Volume auf einem SSD-Laufwerk

Tabelle 1. Backup eines Volumes von einem Server mit einer SATA-SSD.

Festplattengröße (verarbeitete Daten) 237,9 GB
Daten aus der Quelle gelesen 200,1 GB
Nach Deduplizierung und Komprimierung an Ceph übertragene Daten 69,7 GB
Deduplizierung 1.3X
Kompression 2.7X


Tabelle 2.

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Stellvertreter
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
Linux-VM,
RBD-Replik 3
646 83 33 84 21 554 110
Linux-VM,
CephFS-Replikat 3
521 97 25 31 5 564 137
Linux-VM,
RBD, EC
645 82 34 83 24 554 111
Linux-VM,
CephFS, EC
536 97 26 27 4 564 133
Linux-Server,
RBD, EC
526 97 21 16 3 561 136

Hinweis: Die durchschnittlichen Datenschreibraten werden aus Datenübertragung geteilt durch Dauer berechnet. Diese Raten repräsentieren die Workloads des Ceph-Clusters in diesen Backup-Jobs.

(2)Sichern Sie eine Windows 10-VM auf Hyper-V auf HDD

In diesem Benchmark sichern wir eine Hyper-V-Instanz, die auf einer SATA-Festplatte gespeichert ist. Die Verarbeitungsraten dieser Jobs erreichen die Obergrenze der HDD-Bandbreite. Wir können auch feststellen, dass der Engpass an der Quelle liegt, da ihre Lasten während 99% der Jobdauer ausgelastet sind. Ceph-Cluster, das Ziel, die Arbeitslast der Veeam-Backup-Jobs ist gering. Ceph-Cluster ist nur zu 6 % bis 1 % der Arbeitszeit beschäftigt.

Im Vergleich zum vorherigen Benchmark ist die Verarbeitungsrate des VM-Backups deutlich geringer als die des SSD-Backups. Dies liegt hauptsächlich daran, dass die VM-Daten auf einer Festplatte gespeichert sind. 

Tisch 3.

Festplattengröße (HDD) 127 GB
Daten aus der Quelle gelesen 37,9 GB
Nach
Deduplizierung und Komprimierung an Ceph übertragene Daten
21,4 GB
Deduplizierung 3.3X
Kompression 1,8X


Tabelle 4. Ein Image einer virtuellen Maschine auf einer SATA3-Festplatte sichern

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Stellvertreter
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
Linux-VM,
RBD-Volume, EC
363 99 7 3 6 145 60
Linux-VM,
CephFS-Volume,
EC
377 99 7 2 1 142 58,1
Linux-Server,
RBD-Volume, EC
375 99 6 2 2 140 58,4

Hinweis: Die durchschnittlichen Datenschreibraten werden aus Datenübertragung geteilt durch Dauer berechnet. Diese Raten repräsentieren die Workloads des Ceph-Clusters in diesen Backup-Jobs.

(3) Virtuelle Maschinen auf ESXi auf HDD sichern

Dieser Test sichert eine CentOS 7- und eine Windows 10-Virtual-Maschine, die auf einer HDD eines VMWare ESXi 6.5-Hosts läuft, in einem Repository, das von einer Ceph RBD mit 4+2-Löschcode-Schutz gesichert wird. 

Tabelle 5.

Quelle CentOS-VM Windows 10-VM
Festplattengröße (HDD) 40 GB 32 GB
Daten aus der Quelle gelesen 1,8 GB 12,9 GB
Nach
Deduplizierung und Komprimierung an Ceph übertragene Daten
966 MB 7,7 GB
Deduplizierung 22.1X 2.5X
Kompression 1.9X 1.7X


Tabelle 6.

Backup-
Quelle
Dauer
(Sek.)
Quelle
(%)
Stellvertreter
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
CentOS 7 122 99 10 5 0 88 8
Windows 10 244 99 11 5 1 93 32

Hinweis: Die durchschnittlichen Datenschreibraten werden aus Datenübertragung geteilt durch Dauer berechnet. Diese Raten repräsentieren die Workloads des Ceph-Clusters in diesen Backup-Jobs.

Schlussfolgerungen

Den Testergebnissen zufolge weisen Ceph RBD und CephFS eine ähnliche Leistung auf. Dies entspricht unserer Erfahrung bezüglich des Benchmarks der RBD- und CephFS-Leistung. Vergleicht man die Eigenschaften von CephFS und RBD, haben sie ihre Vor- und Nachteile. Wenn Sie mehrere Repository-Server bereitstellen müssen, müssen Sie für jeden Backup-Repository-Server ein RBD-Image erstellen, da Sie Ceph RBD nur auf einem Host mounten können. Im Vergleich zu CephFS ist die Verwendung von RBD einfacher, da die Metadatenserver nicht benötigt werden. Wir müssen die RBD-Kapazitätsgröße beim Erstellen zuweisen, sodass Sie die Kapazität ändern müssen, wenn Sie mehr Platz benötigen.

Wenn Sie CephFS als Repository verwenden, müssen Sie mindestens einen Metadatenserver (MDS) im Ceph-Cluster bereitstellen. Wir brauchen auch einen Standby-Metadatenserver für hohe Verfügbarkeit. Im Vergleich zum Ceph RBD müssen Sie dem Dateisystem keine Quote zuweisen. Sie können das CephFS also als unbegrenzten Speicherpool behandeln.

In dieser Anwendungsfall-Demonstration sichern unsere Tests nur eine VM in jedem Backup-Auftrag. Laut den obigen Testberichten wissen wir, dass die durchschnittliche Datenschreibrate mit der Verarbeitungsrate und der Datendeduplizierungs- und Komprimierungseffizienz zusammenhängt. Eine schnellere Quellfestplatte verkürzt die Dauer des Backup-Auftrags und führt zu einer schnelleren Verarbeitungsrate. Abhängig von der Infrastruktur der Benutzer können Benutzer mehrere gleichzeitige Jobs bereitstellen, um verschiedene Objekte gleichzeitig zu sichern. Ceph Storage bietet eine sehr gute Leistung bei der Unterstützung mehrerer gleichzeitiger Jobs. 

Ein 20x HDD OSD Ceph Cluster mit 3x Ambedded Mars 400 kann bis zu 700 MB/s aggregierten Schreibdurchsatz für den 4+2 Erasure Code Pool bieten. Die Bereitstellung mehrerer aktueller Backup-Jobs hat den Vorteil, dass die Gesamtdauer der Backups verkürzt wird. Die maximale Leistung eines Ceph-Clusters ist nahezu linear proportional zur Gesamtzahl der Festplatten im Cluster.

In diesem Anwendungsfall haben wir die Verwendung von S3-Objektspeicher als Backup-Repository nicht getestet. S3-Objektspeicher können als Kapazitätsebene im Veeam Scale-Out-Backup-Repository und als Zielarchiv-Repository für NAS-Backups verwendet werden. Mit dem Ambedded UVS-Manager, der Web-GUI für das ceph-Management, können Sie ganz einfach ein RADOS-Gateway einrichten und Objektspeicherbenutzer erstellen.

Download
Verwenden Sie Ceph als Repository für das Whitepaper zu Veeam Backup & Replication
Verwenden Sie Ceph als Repository für das Whitepaper zu Veeam Backup & Replication

So richten Sie das Ceph RBD-Blockgerät und das CephFS-Dateisystem als Backup-Repository von Veeam zum Sichern von virtuellen Maschinen und Dateien ein

Download
Verwandte Produkte
Ceph-Speichergerät - Ceph Storage Appliance Mars 400 vorne.
Ceph-Speichergerät
Mars 400PRO

UniVirStor ist eine ceph-basierte Software Defined Storage Appliance. Die integrierte Ceph-Speicher-Appliance integriert die abgestimmte Ceph-Software,...

Einzelheiten
Mars 400SES SUSE Enterprise Storage Appliance - Mars 400SES SUSE Enterprise Storage 6 (Nautilus) Appliance.
Mars 400SES SUSE Enterprise Storage Appliance
Mars 400SES

Die Mars400SES SUSE Enterprise Storage Appliance besteht aus ARM-Mikroserver-Hardware, 3 Jahren SUSE Enterprise Storage- und SUSE Linux Enterprise Server-Abonnement...

Einzelheiten

Ambedded - Eine professionelle Ceph-Speicherlösung auf dem Markt.

Befindet sich in Taiwan seit 2013, Ambedded Technology Co., LTD. ist ein Anbieter von Ceph-Speicherlösungen, der ARM-basierte Software Defined Storage Appliances mit 60 % CapEX-Einsparung, 70 % weniger Stromverbrauch und 100 % Scale-Out-Vorteilen anbietet.

Für das Design und die Herstellung von Software-definiertem Speicher verfügt das Ambedded-Team über umfassende Erfahrung, um Kunden bei der Einführung der ceph-Lösung in vielseitigen Branchen wie Telekommunikation, Medizin, Militär, Edge-Rechenzentren und HA-erforderlichen Unternehmensspeichern zu helfen.

Ambedded bietet seinen Kunden seit 2013 Ceph-Speicherlösungen an, sowohl fortschrittliche Technologie als auch 20 Jahre Erfahrung. Ambedded stellt sicher, dass die Anforderungen jedes Kunden erfüllt werden.