
Veeam-Backup und -Archivierung für die Arbeit mit Ceph
In dieser Fallstudie wird erläutert, wie die Mars 400 ceph Storage Appliance als Backup-Repositories für Veeam Backup und Replikation verwendet wird.
Ceph unterstützt Objektspeicher, Blockspeicher und das POSIX-Dateisystem in einem Cluster. Je nach Backup-Anforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speicher-Backup-Strategien zu unterstützen.
In diesem Artikel verwenden wir Ceph Block Storage (Ceph RBD) und Ceph File System (Cephfs) als Backup-Repositories und vergleichen die Dauer ihrer Backup-Jobs beim Sichern virtueller Maschinen von Hyper-V und VMWare.
Backup-Lösungsarchitektur mit Veeam und Ceph
Die Architektur zum Sichern virtueller Maschinen auf VMWare und Hyper-V ist ähnlich. Veeam verwendet Data Mover, um Daten von Quellhosts in Backup-Repositories zu übertragen. Die Datamover werden auf dem Proxy-Server und dem Repository-Server ausgeführt. Um Ceph als Backend-Speicher eines Backup-Repositorys zu verwenden, können Sie RBD oder CephFS auf einem physischen Linux-Server oder einer virtuellen Maschine als Repository-Server bereitstellen.
Wenn es sich bei den Proxy- und Repository-Servern um virtuelle Maschinen innerhalb des Hypervisor-Clusters handelt, können Sie die Vorteile einer netzwerkfreien Hochgeschwindigkeits-Datenübertragung zwischen VM-Festplatte, Proxy-Server und dem Repository-Server nutzen. Die beste Konfiguration eines großen Hypervisor-Clusters ist die Bereitstellung einer Proxy-Server-VM und einer Repository-Server-VM auf jedem VMWare-Host. Andernfalls können Sie eine Backup-Proxy-VM auf jedem VMWare-Host und einen Off-Host-Repository-Host bereitstellen, um die Arbeitslast aus Ihrer Produktions-VMWare zu entfernen.
Es gibt drei Möglichkeiten, die Ambedded Ceph-Appliance als Repositories für Veeam Backup and Replication zu verwenden. CephFS- und RBD-Blockgeräte können als lokales Backup-Repository verwendet werden. Der S3-Objektspeicher kann als Kapazitätsebene für einen Remote-Standort verwendet werden.
Wie Sie das Ceph RBD-Blockgerät und das CephFS-Dateisystem als Backup-Repository von Veeam zum Sichern virtueller Maschinen und Dateien einrichten, erfahren Sie im Whitepaper am Ende dieser Seite.
Testumgebung
- Drei Mars 400 mit 3x Monitoren, 20 OSDs und 1x MDS (Metadatenserver)
- Jeder Ceph-Daemon läuft auf einem Dual-Core-Arm-A72-Mikroserver
- Betriebssystem: CentOS 7
- Ceph-Software: Nautilus 14.2.9 Arm64
- Netzwerk: 4x 10-Gb-Netzwerk pro Mars 400
Veeam Backup & Replication 10, Version: 10.0.1.4854
Veeam Backup-Server
- CPU: Intel Xeon E5-2630 2,3 GHz DUAL
- RAM: 64 GB
- Netzwerk: 2x 10 Gb sfp+ Bonding
- Festplatte: 1 TB für System, 256 GB SATA3 SSD für Volume
- Windows-Server 2019
Veeam-Proxy-Server
- mit Veeam Backup Server zusammenarbeiten
Repository-Server
- Virtuelle Maschine
◇ CPU: 4 Kerne 2,3 GHz
◇ DRAM: 8 GB
◇ Netzwerk: Brücke
◇ Festplatte: 50 GB virtuelle Festplatte
◇ Betriebssystem: CentOS 7.8.2003
- Baremetal-Server
◇ CPU: Intel Xeon X5650 2,67 GHz DUAL
◇ RAM: 48 GB
◇ Netzwerk: 2-Port 10 Gb sfp+ Bonding
◇ Festplatte: 1 TB für das System
◇ Betriebssystem: CentOS 7.6.1810
Hyper-V-Host
◇ CPU: Intel Xeon E5-2630 2,3 GHz DUAL
◇ RAM: 64 GB
◇ Netzwerk: 2-Port 10 Gb sfp+ Bonding
◇ Festplatte: 1 TB für das System
◇ Windows-Server 2019
VMWare-Host
◇ CPU: Intel Xeon E5-2630 2,3 GHz DUAL
◇ RAM: 64 GB
◇ Netzwerk: 2-Port 10 Gb sfp+ Bonding
◇ Festplatte: 1 TB für das System
◇ ESXi 6.5
Netzwerk: 10-GbE-Switch
Benchmark auf verschiedenen Setups
Um die Backup-Leistung verschiedener Backup-Repositories zu bewerten, haben wir Tests mit verschiedenen Backup-Repositories und drei Backup-Quellen durchgeführt.
Sicherungsquellen, die wir für die Tests verwenden, sind ein SATA-SSD-basiertes Volume auf einem Server, eine Windows-VM von Hyper-V sowie eine CentOS 7-VM und eine Windows-VM von VMWare.
(1) Sichern Sie ein Volume auf einem SSD-Laufwerk
Tabelle 1. Sichern Sie ein Volume von einem Server mit einer SATA-SSD.
Festplattengröße (verarbeitete Daten) | 237,9 GB |
Daten Aus der Quelle gelesen | 200,1 GB |
Nach der Deduplizierung und Komprimierung an Ceph übertragene Daten | 69,7 GB |
Deduplizierung | 1,3X |
Kompression | 2,7X |
Tabelle 2.
Backup- Repository |
Dauer (Sek.) |
Quelle (%) |
Proxy (%) |
Netzwerk (%) |
Ziel (%) |
Verarbeitungsrate (MB/s) |
Durchschnittliche Datenschreibrate (MB/s) |
Linux-VM, RBD-Replikat 3 |
646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux-VM, CephFS-Replikat 3 |
521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux-VM, RBD, EC |
645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux-VM, CephFS, EC |
536 | 97 | 26 | 27 | 4 | 564 | 133 |
Linux-Server, RBD, EC |
526 | 97 | 21 | 16 | 3 | 561 | 136 |
Hinweis: Die durchschnittlichen Datenschreibraten werden aus den übertragenen Daten dividiert durch die Dauer berechnet. Diese Raten stellen die Workloads des Ceph-Clusters in diesen Backup-Jobs dar.
(2) Sichern Sie eine Windows 10-VM auf Hyper-V auf HDD
In diesem Benchmark sichern wir eine Hyper-V-Instanz, die auf einer SATA-Festplatte gespeichert ist. Die Verarbeitungsraten dieser Jobs erreichen die obere Grenze der HDD-Bandbreite. Wir können auch feststellen, dass der Engpass an der Quelle liegt, da ihre Lasten während 99 % der Auftragsdauer ausgelastet sind. Ceph-Cluster, das Ziel, die Arbeitsbelastung durch die Veeam-Backup-Jobs ist gering. Das Ceph-Cluster ist nur zu 6 % bis 1 % der Arbeitszeit ausgelastet.
Im Vergleich zum vorherigen Benchmark ist die Verarbeitungsrate des VM-Backups deutlich geringer als die des SSD-Backups. Dies liegt hauptsächlich daran, dass die VM-Daten auf einer Festplatte gespeichert werden.
Tisch 3.
Festplattengröße (HDD) | 127 GB |
Daten aus Quelle gelesen | 37,9 GB |
Nach der Deduplizierung und Komprimierung an Ceph übertragene Daten |
21,4 GB |
Deduplizierung | 3,3X |
Kompression | 1,8X |
Tabelle 4. Sichern Sie ein Image einer virtuellen Maschine auf einer SATA3-Festplatte
Backup- Repository |
Dauer (Sek.) |
Quelle (%) |
Proxy (%) |
Netzwerk (%) |
Ziel (%) |
Verarbeitungsrate (MB/s) |
Durchschnittliche Datenschreibrate (MB/s) |
Linux-VM, RBD-Volume, EC |
363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux-VM, CephFS-Volume, EC |
377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Linux Server, RBD-Volume, EC |
375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
Hinweis: Die durchschnittlichen Datenschreibraten werden aus den übertragenen Daten dividiert durch die Dauer berechnet. Diese Raten stellen die Workloads des Ceph-Clusters in diesen Backup-Jobs dar.
(3) Virtuelle Maschinen auf ESXi auf HDD sichern
Dieser Test sichert eine virtuelle Maschine mit CentOS 7 und Windows 10, die auf einer Festplatte eines VMWare ESXi 6.5-Hosts ausgeführt wird, in einem Repository, das von einem Ceph RBD mit 4+2-Löschcodeschutz unterstützt wird.
Tabelle 5.
Quelle | CentOS-VM | Windows 10-VM |
Festplattengröße (HDD) | 40GB | 32 GB |
Daten aus Quelle gelesen | 1,8 GB | 12,9 GB |
Nach der Deduplizierung und Komprimierung an Ceph übertragene Daten |
966 MB | 7,7 GB |
Deduplizierung | 22.1X | 2,5X |
Kompression | 1,9X | 1,7X |
Tabelle 6.
Sicherungsquelle _ |
Dauer (Sek.) |
Quelle (%) |
Proxy (%) |
Netzwerk (%) |
Ziel (%) |
Verarbeitungsrate (MB/s) |
Durchschnittliche Datenschreibrate (MB/s) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Hinweis: Die durchschnittlichen Datenschreibraten werden aus den übertragenen Daten dividiert durch die Dauer berechnet. Diese Raten stellen die Workloads des Ceph-Clusters in diesen Backup-Jobs dar.
Schlussfolgerungen
Den Testergebnissen zufolge weisen Ceph RBD und CephFS eine ähnliche Leistung auf. Dies entspricht unserer Erfahrung in Bezug auf den Benchmark der RBD- und CephFS-Leistung. Vergleicht man die Eigenschaften von CephFS und RBD, haben sie ihre Vor- und Nachteile. Wenn Sie mehrere Repository-Server bereitstellen müssen, müssen Sie für jeden Backup-Repository-Server ein RBD-Image erstellen, da Sie Ceph RBD nur auf einem Host bereitstellen können. Im Vergleich zu CephFS ist die Verwendung von RBD einfacher, da keine Metadatenserver benötigt werden. Wir müssen die RBD-Kapazitätsgröße bei der Erstellung zuweisen, sodass Sie die Kapazität anpassen müssen, wenn Sie mehr Speicherplatz benötigen.
Wenn Sie CephFS als Repository verwenden, müssen Sie mindestens einen Metadatenserver (MDS) im Ceph-Cluster bereitstellen. Außerdem benötigen wir einen Standby-Metadatenserver für Hochverfügbarkeit. Im Vergleich zum Ceph RBD müssen Sie dem Dateisystem kein Kontingent zuweisen. Sie können das CephFS also als unbegrenzten Speicherpool behandeln.
In dieser Anwendungsfalldemonstration sichern unsere Tests nur eine VM in jedem Sicherungsjob. Gemäß den obigen Testberichten wissen wir, dass die durchschnittliche Datenschreibrate mit der Verarbeitungsrate und der Datendeduplizierungs- und Komprimierungseffizienz zusammenhängt. Eine schnellere Quellfestplatte verkürzt die Dauer des Backup-Jobs und führt zu einer schnelleren Verarbeitungsrate. Abhängig von der Infrastruktur der Benutzer können Benutzer mehrere gleichzeitige Jobs bereitstellen, um verschiedene Objekte gleichzeitig zu sichern. Ceph Storage ist sehr gut darin, mehrere gleichzeitige Jobs zu unterstützen.
Ein 20x HDD OSD Ceph-Cluster mit 3x Ambedded Mars 400 kann einen aggregierten Schreibdurchsatz von bis zu 700 MB/s für den 4+2-Löschcode-Pool bieten. Das Bereitstellen mehrerer aktueller Backup-Jobs hat den Vorteil, dass die Gesamtdauer des Backups verkürzt wird. Die maximale Leistung eines Ceph-Clusters ist nahezu linear proportional zur Gesamtzahl der Laufwerke im Cluster.
In diesem Anwendungsfall haben wir die Verwendung von S3-Objektspeicher als Backup-Repository nicht getestet. S3-Objektspeicher kann als Kapazitätsebene im Veeam Scale-Out-Backup-Repository und als Zielarchiv-Repository für NAS-Backups verwendet werden. Sie können ganz einfach ein RADOS-Gateway einrichten und Objektspeicherbenutzer einfach mit dem Ambedded UVS-Manager, der ceph-Verwaltungs-Web-GUI, erstellen.
- Download
-
Verwenden Sie Ceph als Repository für das Whitepaper zu Veeam Backup & Replication
So richten Sie das Ceph RBD-Blockgerät und das CephFS-Dateisystem als Backup-Repository von Veeam zum Sichern virtueller Maschinen und Dateien ein
Download - Verwandte Produkte
-
Ceph Storage-Appliance
Mars400PRO
UniVirStor ist eine ceph-basierte Software Defined Storage Appliance. Die eingebettete Ceph-Speicher-Appliance integriert die abgestimmte Ceph-Software,...
EinzelheitenMars 400SES SUSE Enterprise Storage Appliance
Mars 400SES
Mars400SES SUSE Enterprise Storage Appliance besteht aus ARM-Microserver-Hardware, 3 Jahren Abonnement für SUSE Enterprise Storage und SUSE Linux Enterprise...
Einzelheiten