Veeam Backup und Archiv für die Arbeit Ceph / Ambedded wurde 2013 mit dem erfahrenen Team in gegründet ARM Design und Herstellung von Software-definierten Speichergeräten.

Ambedded Veeam Backup und Archiv für die Arbeit Ceph Einführung. Ambedded wurde 2013 mit dem erfahrenen Team in gegründet ARM Design und Herstellung von Software-definierten Speichergeräten. Ambedded bietet an Ceph storage Lösung für den Markt, einschließlich Ceph storage Appliance auf ARM Mikroserver und SUSE Enterprise Storage Gerät an ARMMikroserver. Zusätzlich zuCeph Lösung, Ambedded bietet auch umfassende Ceph Software-Support für den Kunden, um unerfahrenen Benutzern zu helfen, diese neue Technologie ohne zu zögern zu übernehmen.

service@ambedded.com.tw

Öffnungszeiten: 9-18 Uhr

Warum und wie man das benutzt Ceph Storage Appliance als Repositorys von Veeam Backup & Replication

Veeam Backup und Archiv für die Arbeit Ceph

Diese Fallstudie erklärt die Verwendung des Mars 400 ceph storage appliance als Backup-Repositorys für die Sicherung und Replikation von Veeam.
Ceph unterstützt object storage, block storageund der POSIX file systemalles in einem Cluster. Je nach Sicherungsanforderungen können Kunden verschiedene Speicherprotokolle auswählen, um die Anforderungen verschiedener Speichersicherungsstrategien zu erfüllen.


In diesem Artikel verwenden wirCeph block storage (Ceph RBD) und Ceph file system (Cephfs) als Backup-Repositorys und vergleichen Sie deren Backup-Job-Dauer beim Sichern von virtuellen Maschinen von Hyper-V und VMWare.


Backup Solution Architecture mit Veeam und Ceph

Die Architektur zum Sichern virtueller Maschinen auf VMWare und Hyper-Vsind ähnlich. Veeam verwendet Data Mover, um Daten von Quellhosts in Backup-Repositorys zu übertragen. Die Data Mover werden auf dem Proxyserver und dem Repository-Server ausgeführt. BenutzenCeph Als Backend-Speicher eines Backup-Repositorys können Sie RBD oder CephFS auf einem physischen Linux-Server oder einer virtuellen Maschine als Repository-Server. 

Wenn es sich bei den Proxy- und Repository-Servern um virtuelle Maschinen innerhalb des Hypervisor-Clusters handelt, können Sie den netzwerkfreien Hochgeschwindigkeits-Datentransport zwischen VM-Datenträger, Proxyserver und Repository-Server nutzen. Die beste Konfiguration eines großen Hypervisor-Clusters besteht darin, auf jedem VMWare-Host eine Proxyserver-VM und eine Repository-Server-VM bereitzustellen. Andernfalls können Sie eine Backup-Proxy-VM auf jedem VMWare-Host und einen Off-Host-Repository-Host bereitstellen, um die Arbeitslast aus Ihrer Produktions-VMWare zu entfernen.

Es gibt drei Möglichkeiten, die zu verwenden Ambedded Ceph Appliance als Repositorys für Veeam Backup and Replication. CephFSund RBDblockGeräte können als lokales Backup-Repository verwendet werden. Der S3object storage kann als Kapazitätsstufe für einen Remote-Standort verwendet werden.

Für die Einrichtung des Ceph RBD block Gerät und die CephFS file system Als Backup-Repository von Veeam zum Sichern virtueller Maschinen und Dateien finden Sie die Details im Whitepaper am Ende dieser Seite.


Veeam-Proxy- und Repository-Server sind virtuelle Maschinen innerhalb des Hypervisor-Clusters mit Mars 400-Ceph-Speicher zur Bereitstellung von RBD und Cephfs
Ein großer Hypervisor-Cluster besteht darin, eine Proxyserver-VM und eine Repository-Server-VM auf jedem VMWare-Host bereitzustellen, um Sicherungsdaten in ceph RBD oder cephfs zu speichern

Testumgebung

CephCluster -

  • Drei Mars 400 mit 3x monitors, 20 OSDs und 1x MDS (Metadatenserver)
  • Jeder Ceph Daemon läuft auf einem Dual-Core Arm A72 microserver
  • Betriebssystem: CentOS 7
  • Ceph Software: Nautilus 14.2.9 Arm64
  • Netzwerk: 4x 10 GB Netzwerk pro Mars 400 

Veeam Backup & Replication 10, Version: 10.0.1.4854

Veeam Backup Server

  • CPU: Intel Xeon E5-2630 2,3 GHz DUAL
  • DRAM: 64 GB
  • Netzwerk: 2x 10 GB sfp + Bindung
  • Festplatte: 1 TB für das System, 256 GB SATA3-SSD für das Volume
  • Windows Server 2019

 Veeam Proxy Server

  • mit Veeam Backup Server zusammenarbeiten

 Repository-Server

  • Virtuelle Maschine

◇ CPU: 4 Kerne 2,3 GHz

◇ DRAM: 8 GB

◇ Netzwerk: Brücke

◇ Festplatte: 50 GB virtuelle Festplatte

◇ Betriebssystem: CentOS 7.8.2003

  • Baremetal Server

◇ CPU: Intel Xeon X5650 2.67GHz DUAL

◇ DRAM: 48 GB

◇ Netzwerk: 2-Port 10 GB sfp + Bonding

◇ Festplatte: 1 TB für das System

◇ Betriebssystem: CentOS 7.6.1810

Hyper-V Gastgeber

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Netzwerk: 2-Port 10 GB sfp + Bonding

◇   Festplatte: 1 TB für das System

◇   Windows Server 2019

VMWare-Host

◇   CPU: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Netzwerk: 2-Port 10 GB sfp + Bonding

◇   Festplatte: 1 TB für das System

◇   ESXi 6.5

Netzwerk: 10-GbE-Switch

Benchmark für verschiedene Setups

Um die Sicherungsleistung verschiedener Sicherungsrepositorys zu vergleichen, haben wir Tests mit verschiedenen Sicherungsrepositorys und drei Sicherungsquellen eingerichtet. 

Backup-Quellen, die wir für die Tests verwenden, sind ein SATA-SSD-basiertes Volume auf einem Server, eine Windows-VM von Hyper-Vund eine CentOS 7-VM und eine Windows-VM von VMWare.

(1) Sichern Sie ein Volume auf einem SSD-Laufwerk

Tabelle 1. Sichern Sie ein Volume von einem Server mit einer SATA-SSD.

Festplattengröße (Daten verarbeitet)237,9 GB
Daten aus der Quelle lesen200,1 GB
Daten übertragen an Ceph nach Deduplizierung und Komprimierung69,7 GB
Deduplizierung1.3X
Kompression2,7X


Tabelle 2.

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Proxy
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB / s)
Durchschnittliche
Datenschreibrate
(MB / s)
Linux VM,
RBD-Replik 3
64683338421554110
Linux VM,
CephFS-replica 3
5219725315564137
Linux VM,
RBD, EC
64582348324554111
Linux VM,
CephFS, EC
5369726274564133
Linux Server,
RBD, EC
5269721163561136

Hinweis: Die durchschnittlichen Datenschreibraten werden durch übertragene Daten geteilt durch die Dauer berechnet. Diese Raten repräsentieren die Arbeitsbelastung derCeph Cluster in diesen Sicherungsjobs.

(2) Sichern Sie eine Windows 10-VM auf Hyper-V  auf der Festplatte

In diesem Benchmark sichern wir a Hyper-VInstanz, die auf einer SATA-Festplatte gespeichert ist. Die Verarbeitungsraten dieser Jobs erreichen die Obergrenze der Festplattenbandbreite. Wir können auch feststellen, dass der Engpass in der Quelle liegt, da ihre Lasten während 99% der Auftragsdauer ausgelastet sind.Ceph Cluster, das Ziel und die Arbeitslast aus den Veeam-Sicherungsjobs sind gering. Ceph Der Cluster ist nur zu 6% bis 1% der Arbeitszeit ausgelastet.

Im Vergleich zum vorherigen Benchmark ist die Verarbeitungsrate der VM-Sicherung viel niedriger als die der SSD-Sicherung. Dies liegt hauptsächlich daran, dass die VM-Daten auf einer Festplatte gespeichert sind. 

Tisch 3.

Festplattengröße (HDD)127 GB
Daten aus der Quelle lesen37,9 GB
Daten übertragen an Cephnach
Deduplizierung und Komprimierung
21,4 GB
Deduplizierung3.3X
Kompression1,8X


Tabelle 4. Sichern einer virtuellen Maschine image auf SATA3-Festplatte

Backup-
Repository
Dauer
(Sek.)
Quelle
(%)
Proxy
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB / s)
Durchschnittliche
Datenschreibrate
(MB / s)
Linux VM,
RBD-Volume, EC
3639973614560
Linux VM,
CephFSVolumen,
EG
3779972114258.1
Linux Server,
RBD-Volume, EC
3759962214058.4

Hinweis: Die durchschnittlichen Datenschreibraten werden durch übertragene Daten geteilt durch die Dauer berechnet. Diese Raten repräsentieren die Arbeitsbelastung derCeph Cluster in diesen Sicherungsjobs.

(3) Sichern Sie virtuelle Maschinen auf ESXi auf der Festplatte

Dieser Test sichert eine virtuelle CentOS 7- und eine Windows 10-Maschine, die auf einer Festplatte des VMWare ESXi 6.5-Hosts ausgeführt wird, in einem Repository, das von a unterstützt wird Ceph RBD mit 4 + 2 erasure codeSchutz. 

Tabelle 5.

QuelleCentOS VMWindows 10 VM
Festplattengröße (HDD)40 GB32 GB
Daten aus der Quelle lesen1,8 GB12,9 GB
Daten übertragen an Cephnach
Deduplizierung und Komprimierung
966 MB7,7 GB
Deduplizierung22.1X2,5X
Kompression1,9X1,7X


Tabelle 6.

Backup -
Quelle
Dauer
(Sek.)
Quelle
(%)
Proxy
(%)
Netzwerk
(%)
Ziel
(%)
Verarbeitungsrate
(MB / s)
Durchschnittliche
Datenschreibrate
(MB / s)
CentOS 7122991050888
Windows 102449911519332

Hinweis: Die durchschnittlichen Datenschreibraten werden durch übertragene Daten geteilt durch die Dauer berechnet. Diese Raten repräsentieren die Arbeitsbelastung derCeph Cluster in diesen Sicherungsjobs.

Schlussfolgerungen

Nach den Testergebnissen Ceph RBD und CephFSähnliche Leistung haben. Dies entspricht unserer Erfahrung in Bezug auf den Benchmark von RBD undCephFSPerformance. Vergleich der Eigenschaften vonCephFSund RBD haben sie ihre Vor- und Nachteile. Wenn Sie mehrere Repository-Server bereitstellen müssen, müssen Sie eine RBD erstellenimage für jeden Backup-Repository-Server, da Sie nur mounten können CephRBD auf einem Host. Verglichen mitCephFSDie Verwendung von RBD ist einfacher, da die Metadatenserver nicht benötigt werden. Wir müssen die RBD-Kapazitätsgröße beim Erstellen zuweisen, damit Sie die Kapazität ändern können, wenn Sie mehr Speicherplatz benötigen.

Wenn du benutzt CephFS Als Repository müssen Sie mindestens einen Metadatenserver (MDS) im bereitstellen CephCluster. Für eine hohe Verfügbarkeit benötigen wir außerdem einen Standby-Metadatenserver. Im Vergleich zu denCeph RBD, du musst das nicht geben file systemeine Quote. So können Sie die behandelnCephFS als unbegrenzter Speicherplatz pool.

In dieser Anwendungsfalldemonstration sichern unsere Tests nur eine VM in jedem Sicherungsjob. Gemäß den obigen Testberichten wissen wir, dass die durchschnittliche Datenschreiberate mit der Verarbeitungsrate und der Effizienz der Datendeduplizierung und -komprimierung zusammenhängt. Eine schnellere Quellfestplatte reduziert die Dauer des Sicherungsjobs und führt zu einer schnelleren Verarbeitungsrate. Abhängig von der Infrastruktur der Benutzer können Benutzer mehrere gleichzeitige Jobs bereitstellen, um verschiedene Objekte gleichzeitig zu sichern.Ceph storage Leistung bei der Unterstützung mehrerer gleichzeitiger Jobs. 

Ein 20x HDD OSD Ceph Cluster unterstützt von 3x Ambedded Mars 400 kann einen aggregierten Schreibdurchsatz von bis zu 700 MB / s für 4 + 2 bieten erasure code pool. Durch das Bereitstellen mehrerer aktueller Sicherungsjobs wird die Gesamtdauer der Sicherung verkürzt. Die maximale Leistung von aCeph Der Cluster ist nahezu linear proportional zur Gesamtzahl der Festplatten im Cluster.

In diesem Anwendungsfall haben wir nicht mit S3 getestet object storageals Backup-Repository. S3object storagekann als Kapazitätsstufe im Veeam Scale-Out-Sicherungsrepository und im Zielarchivrepository für NAS-Sicherungen verwendet werden. Sie können ganz einfach ein RADOS-Gateway einrichten und erstellenobject storage Benutzer leicht mit dem Ambedded UVS manager, das ceph Management Web GUI.

Download
Verwenden Ceph als Repository für das Whitepaper zu Veeam Backup & Replication
Verwenden Ceph als Repository für das Whitepaper zu Veeam Backup & Replication

So richten Sie das ein Ceph RBD block Gerät und die CephFS file system als Backup-Repository von Veeam zum Sichern von virtuellen Maschinen und Dateien

Download
Verwandte Produkte
Ceph Storage Appliance - Ceph Storage Appliance Mars 400 Vorderseite.
Ceph Storage Appliance
Mars 400

Mars 400 Ceph Storage Applianceist eine schlüsselfertige softwaredefinierte Speicherlösung für Unternehmen und Rechenzentren. Das Gerät ist integriertARM-Basierend...

Einzelheiten
Mars 400SES SUSE Enterprise Storage Gerät - Mars 400SES SUSE Enterprise Storage 6 (Nautilus) Gerät.
Mars 400SES SUSE Enterprise Storage Gerät
Mars 400SES

Mars400SES SUSE Enterprise Storage Gerät besteht aus ARM microserver Hardware, 3 Jahre SUSE Enterprise Storage & SUSE Linux Enterprise Server-Abonnement...

Einzelheiten

Ambedded Veeam Backup und Archiv für die Arbeit Ceph Einführung

Ambedded Technology Co., LTD. ist ein taiwanesischer Anbieter und Hersteller von verteilten Cloud-Speicher- und Computeranbietern. Ambedded hat unseren Kunden hohe Qualität angeboten Ceph Cluster, Ceph storage appliance, SUSE Enterprise Storage, ARM Speicher, Kubernetes-Speicher, Software-definierter Speicher, ARM Server, SUSE 3 Jahre Abonnement, verteilte Speicherung am ARM, Start ceph Cluster in 3x 1U-Chassis seit 2013. Mit fortschrittlicher Technologie und 20 Jahren Erfahrung, Ambedded Stellen Sie immer sicher, dass Sie die Anforderungen jedes Kunden erfüllen.