Veeam Backup und Archiv für die Arbeit Ceph / Ceph storage appliance integriert abgestimmten Software-Stack und speziell entwickelte Arm Server bietet hervorragende Leistung, Zuverlässigkeit, Web-Benutzeroberfläche und Reduzierung der Gesamtbetriebskosten.

In dieser Fallstudie wird die Verwendung der Mars 400 ceph storage appliance als Backup-Repositories von Veeam Backup and Replication. Ceph unterstützt object storage, block storage, und die POSIX file systemalles in einem Cluster. Je nach Backup-Anforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speicher-Backup-Strategien zu unterstützen. In diesem Artikel verwenden wir Ceph block storage ( Ceph RBD) und Ceph file system ( Cephfs) als Backup-Repositorys und vergleichen die Dauer ihrer Backup-Jobs beim Sichern virtueller Maschinen von Hyper-Vund VMware. Mit mehr als 20 Jahren Erfahrung im Bereich Software Defined Storage, Ambedded mit dem talentierten Team erfahren in ARM basierte Software-Defined-Storage-Appliance Design und Herstellung.

service@ambedded.com.tw

Öffnungszeiten: 9-18 Uhr

Warum und wie man die . verwendet
Ceph Storage Appliance als Repositorys von Veeam Backup & Replication

Veeam Backup und Archiv für die Arbeit Ceph

In dieser Fallstudie wird die Verwendung der
Mars 400
ceph storage appliance als Backup-Repositories von Veeam Backup and Replication.

Ceph unterstützt
object storage,
block storage, und die POSIX
file systemalles in einem Cluster. Je nach Backup-Anforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speicher-Backup-Strategien zu unterstützen.


In diesem Artikel verwenden wir
Ceph
block storage (
Ceph RBD) und
Ceph
file system (
Cephfs) als Backup-Repositorys und vergleichen die Dauer ihrer Backup-Jobs beim Sichern virtueller Maschinen von
Hyper-V und VMware.


Architektur der Backup-Lösung mit Veeam und Ceph

Die Architektur der Sicherung virtueller Maschinen auf VMWare und Hyper-Vsind ähnlich. Veeam verwendet Data Mover, um Daten von Quellhosts in Backup-Repositorys zu übertragen. Die Data Mover laufen auf dem Proxy-Server und dem Repository-Server. BenutzenCeph als Backend-Speicher eines Backup-Repositorys können Sie RBD mounten oder CephFS auf einem physischen Linux-Server oder einer virtuellen Maschine als Repository-Server. 

Wenn es sich bei den Proxy- und Repository-Servern um virtuelle Maschinen innerhalb des Hypervisor-Clusters handelt, können Sie den netzwerkfreien Hochgeschwindigkeitsdatentransport zwischen VM-Festplatte, Proxy-Server und Repository-Server nutzen. Die beste Konfiguration eines großen Hypervisor-Clusters besteht darin, auf jedem VMWare-Host eine Proxy-Server-VM und eine Repository-Server-VM bereitzustellen. Andernfalls können Sie eine Backup-Proxy-VM auf jedem VMWare-Host und einen Off-Host-Repository-Host bereitstellen, um die Arbeitslast von Ihrer Produktions-VMWare zu entfernen.

Es gibt drei Möglichkeiten, die Ambedded Ceph Appliance als Repositorys für Veeam Backup and Replication. CephFSund RBDblockGeräte können als lokales Backup-Repository verwendet werden. Der S3object storage kann als Kapazitätsebene für einen Remote-Standort verwendet werden.

Zum Einrichten der Ceph RBD block Gerät und die CephFS file system als Backup-Repository von Veeam zum Sichern von virtuellen Maschinen und Dateien finden Sie die Details im Whitepaper am Ende dieser Seite.


Veeam-Proxy- und Repository-Server sind virtuelle Maschinen innerhalb des Hypervisor-Clusters, mit Mars 400-Ceph-Speicher zur Bereitstellung von RBD und Cephfs
Ein großer Hypervisor-Cluster besteht darin, auf jedem VMWare-Host eine Proxy-Server-VM und eine Repository-Server-VM bereitzustellen, um Sicherungsdaten zum Speichern in ceph RBD oder cephfs zu haben

Testumgebung

CephCluster -

  • Drei Mars 400 mit 3x monitors, 20 OSDs und 1x MDS (Metadatenserver)
  • Jeder Ceph Daemon läuft auf einem Dual-Core Arm A72 microserver
  • Betriebssystem: CentOS 7
  • Ceph Software: Nautilus 14.2.9 Arm64
  • Netzwerk: 4x 10Gb Netzwerk pro Mars 400 

Veeam Backup & Replication 10, Version: 10.0.1.4854

Veeam Backup-Server

  • CPU: Intel Xeon E5-2630 2,3 GHz DUAL
  • DRAM: 64GB
  • Netzwerk: 2x 10Gb sfp+ Bonding
  • Festplatte: 1 TB für System, 256 GB SATA3-SSD für Volume
  • Windows Server 2019

 Veeam Proxy-Server

  • Kollokation mit Veeam Backup Server

 Repository-Server

  • Virtuelle Maschine

◇ CPU: 4 Kerne 2,3 GHz

◇ DRAM: 8 GB

◇ Netzwerk: Brücke

◇ Festplatte: 50 GB virtuelle Festplatte

Betriebssystem: CentOS 7.8.2003

  • Baremetal-Server

◇ CPU: Intel Xeon X5650 2,67 GHz DUAL

◇ DRAM: 48 GB

◇ Netzwerk: 2-Port 10Gb sfp+ Bonding

◇ Festplatte: 1 TB für System

◇ Betriebssystem: CentOS 7.6.1810

Hyper-V Gastgeber

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Netzwerk: 2-Port 10Gb sfp+ Bonding

◇   Festplatte: 1 TB für System

◇   Windows Server 2019

VMWare-Host

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Netzwerk: 2-Port 10Gb sfp+ Bonding

◇   Festplatte: 1 TB für System

◇   ESXi 6.5

Netzwerk: 10GbE-Switch

Benchmark für verschiedene Setups

Um die Backup-Performance verschiedener Backup-Repositorys zu vergleichen, haben wir Tests mit verschiedenen Backup-Repositorys und drei Backup-Quellen eingerichtet. 

Backup-Quellen, die wir für die Tests verwenden, sind ein SATA-SSD-basiertes Volume auf einem Server, eine Windows-VM von Hyper-V, und eine CentOS 7-VM und eine Windows-VM von VMWare.

(1)Sichern Sie ein Volume auf einem SSD-Laufwerk

Tabelle 1. Backup eines Volumes von einem Server mit einer SATA-SSD.

Festplattengröße (verarbeitete Daten)237,9 GB
Daten aus der Quelle gelesen200,1 GB
Daten übertragen an Ceph nach Deduplizierung und Komprimierung69,7 GB
Deduplizierung1.3X
Kompression2.7X


Tabelle 2.

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Stellvertreter
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
Linux-VM,
RBD-Replik 3
64683338421554110
Linux-VM,
CephFS-Nachbildung 3
5219725315564137
Linux-VM,
RBD, EC
64582348324554111
Linux-VM,
CephFS, EC
5369726274564133
Linux-Server,
RBD, EC
5269721163561136

Hinweis: Die durchschnittlichen Datenschreibraten werden aus Datenübertragung geteilt durch Dauer berechnet. Diese Sätze stellen die Arbeitsbelastungen derCeph Cluster in diesen Backup-Jobs.

(2)Sichern Sie eine Windows 10-VM auf Hyper-V  auf HDD

In diesem Benchmark sichern wir a Hyper-VInstanz, die auf einer SATA-Festplatte gespeichert ist. Die Verarbeitungsraten dieser Jobs erreichen die Obergrenze der HDD-Bandbreite. Wir können auch feststellen, dass der Engpass an der Quelle liegt, da ihre Lasten während 99% der Jobdauer ausgelastet sind.Ceph Cluster, dem Ziel, ist die Arbeitslast der Veeam-Backup-Jobs gering. Ceph Cluster ist nur zu 6% bis 1% der Arbeitszeit beschäftigt.

Im Vergleich zum vorherigen Benchmark ist die Verarbeitungsrate des VM-Backups deutlich geringer als beim SSD-Backup. Dies liegt hauptsächlich daran, dass die VM-Daten auf einer Festplatte gespeichert sind. 

Tisch 3.

Festplattengröße (HDD)127 GB
Daten aus der Quelle gelesen37,9 GB
Daten übertragen an Cephnach
Deduplizierung und Komprimierung
21,4 GB
Deduplizierung3.3X
Kompression1,8X


Tabelle 4. Backup einer virtuellen Maschine image auf SATA3-Festplatte

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Stellvertreter
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
Linux-VM,
RBD-Volume, EC
3639973614560
Linux-VM,
CephFSVolumen,
EC
3779972114258,1
Linux-Server,
RBD-Volume, EC
3759962214058,4

Hinweis: Die durchschnittlichen Datenschreibraten werden aus Datenübertragung geteilt durch Dauer berechnet. Diese Sätze stellen die Arbeitsbelastungen derCeph Cluster in diesen Backup-Jobs.

(3) Virtuelle Maschinen auf ESXi auf HDD sichern

Dieser Test sichert eine CentOS 7- und eine Windows 10 Virtual Machine, die auf einer HDD eines VMWare ESXi 6.5-Hosts ausgeführt wird, in einem Repository, das von einem Ceph RBD mit 4+2 erasure codeSchutz. 

Tabelle 5.

QuelleCentOS-VMWindows 10-VM
Festplattengröße (HDD)40 GB32 GB
Daten aus der Quelle gelesen1,8 GB12,9 GB
Daten übertragen an Cephnach
Deduplizierung und Komprimierung
966 MB7,7 GB
Deduplizierung22.1X2.5X
Kompression1.9X1.7X


Tabelle 6.

Backup-
Quelle
Dauer
(Sek.)
Quelle
(%)
Stellvertreter
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB/s)
Durchschnittliche
Datenschreibrate
(MB/s)
CentOS 7122991050888
Windows 102449911519332

Hinweis: Die durchschnittlichen Datenschreibraten werden aus Datenübertragung geteilt durch Dauer berechnet. Diese Sätze stellen die Arbeitsbelastungen derCeph Cluster in diesen Backup-Jobs.

Schlussfolgerungen

Nach den Testergebnissen, Ceph RBD und CephFSeine ähnliche Leistung haben. Dies entspricht unserer Erfahrung bezüglich des Benchmarks von RBD undCephFSPerformance. Vergleich der Eigenschaften vonCephFSund RBD haben sie ihre Vor- und Nachteile. Wenn Sie mehrere Repository-Server bereitstellen müssen, müssen Sie eine RBD erstellenimage für jeden Backup-Repository-Server, da Sie nur mounten können CephRBD auf einem Host. Im Vergleich zuCephFS, ist die Verwendung von RBD einfacher, da die Metadatenserver nicht benötigt werden. Wir müssen die RBD-Kapazitätsgröße beim Erstellen zuweisen, sodass Sie die Kapazität ändern müssen, wenn Sie mehr Platz benötigen.

Wenn du benutzt CephFS als Repository müssen Sie mindestens einen Metadatenserver (MDS) im CephCluster. Wir brauchen auch einen Standby-Metadatenserver für hohe Verfügbarkeit. Im Vergleich zu denCeph RBD, du musst das nicht geben file systemeine Quote. So können Sie die behandelnCephFS als unbegrenzter Speicher pool.

In dieser Anwendungsfall-Demonstration sichern unsere Tests nur eine VM in jedem Backup-Auftrag. Laut den obigen Testberichten wissen wir, dass die durchschnittliche Datenschreibrate mit der Verarbeitungsrate und der Datendeduplizierungs- und Komprimierungseffizienz zusammenhängt. Eine schnellere Quellfestplatte verkürzt die Dauer des Backup-Auftrags und führt zu einer schnelleren Verarbeitungsrate. Abhängig von der Infrastruktur der Benutzer können Benutzer mehrere gleichzeitige Jobs bereitstellen, um verschiedene Objekte gleichzeitig zu sichern.Ceph storage funktioniert sehr gut bei der Unterstützung mehrerer gleichzeitiger Jobs. 

Ein 20x HDD-OSD Ceph Cluster angetrieben von 3x Ambedded Mars 400 kann bis zu 700 MB/s aggregierten Schreibdurchsatz für die 4+2 . bieten erasure code pool. Die Bereitstellung mehrerer aktueller Backup-Jobs hat den Vorteil, dass die Gesamtdauer der Backups verkürzt wird. Die maximale Leistung von aCeph Cluster ist fast linear proportional zur Gesamtzahl der Festplatten im Cluster.

In diesem Anwendungsfall haben wir nicht mit S3 getestet object storageals Backup-Repository. S3object storagekann als Kapazitätsebene im Veeam Scale-Out-Backup-Repository und als Zielarchiv-Repository für NAS-Backups verwendet werden. Sie können ganz einfach ein RADOS-Gateway einrichten und erstellenobject storage Benutzer einfach mit dem Ambedded UVS manager, das ceph Management-Web GUI.

Download
Benutzen
Ceph als Repository für das Whitepaper zu Veeam Backup & Replication
Benutzen Ceph als Repository für das Whitepaper zu Veeam Backup & Replication

So richten Sie die ein Ceph RBD block Gerät und die CephFS file system als Backup-Repository von Veeam zum Sichern von virtuellen...

Download
Verwandte Produkte
Ceph Storage Appliance - Ceph Storage Appliance
Mars 400 Vorderseite.
Ceph Storage Appliance
Mars 400

Einheitlich Cephbasierende softwaredefinierte Speicher-Appliance. Unsere Ceph Geräte integrieren die getunten Ceph Software, Web-UI und Arm microserver....

Einzelheiten
Mars 400SES
SUSE Enterprise Storage Gerät - Mars 400SES
SUSE Enterprise Storage 6 (Nautilus) Gerät.
Mars 400SES SUSE Enterprise Storage Gerät
Mars 400SES

Mars400SES SUSE Enterprise Storage Gerät besteht aus ARM microserver Hardware, 3 Jahre SUSE Enterprise Storage & SUSE Linux Enterprise...

Einzelheiten

Ambedded - Ein Professioneller Ceph storage Lösung für den Markt.

Befindet sich in Taiwan seit 2013, Ambedded Technology Co., LTD. ist ein Ceph storage Lösungsanbieter, der bietet ARM basierte Software Defined Storage Appliances mit 60 % CapEX-Einsparung, 70 % weniger Stromverbrauch und 100 % Scale-Out-Vorteilen.

Für Software-Defined Storage Design und Fertigung, Ambedded Team verfügt über umfassende Erfahrung, um Kunden bei der Einführung der ceph Lösung für vielseitige Branchen, wie Telekommunikation, Medizin, Militär, Edge-Rechenzentren und HA benötigte Unternehmensspeicher.

Ambedded bietet Kunden Ceph storage Lösungen seit 2013, sowohl fortschrittliche Technologie als auch 20 Jahre Erfahrung, Ambedded stellt sicher, dass die Anforderungen jedes Kunden erfüllt werden.