Sauvegarde et archivage Veeam pour travailler avec Ceph / Ambedded a été fondée en 2013 avec une équipe talentueuse expérimentée en ARM conception et fabrication d'appareils de stockage définis par logiciel.

Ambedded Sauvegarde et archivage Veeam pour travailler avec Ceph Introduction. Ambedded a été fondée en 2013 avec une équipe talentueuse expérimentée en ARM conception et fabrication d'appareils de stockage définis par logiciel. Ambedded des offres Ceph storage solution au marché, y compris Ceph storage Appliance sur ARM microserveurs et SUSE Enterprise Storage Appareil allumé ARMmicroserveurs. En plus de Ceph Solution, Ambedded offre également des Ceph support logiciel au client, pour aider les utilisateurs inexpérimentés à adopter cette nouvelle technologie sans hésitation.

service@ambedded.com.tw

Heures d'ouverture: 9h-18h

Pourquoi et comment utiliser le
Ceph Storage Appliance comme référentiels de Veeam Backup & Replication

Sauvegarde et archivage Veeam pour travailler avec Ceph

Cette étude de cas explique comment utiliser
Mars 400
ceph storage appliance comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.

Ceph les soutiens
object storage,
block storage, et le POSIX
file systemle tout dans un seul cluster. Selon les besoins de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour prendre en charge les besoins de diverses stratégies de sauvegarde de stockage.


Dans cet article, nous utilisons
Ceph
block storage (
Ceph RBD) et
Ceph
file system (
Cephfs) en tant que référentiels de sauvegarde et comparez la durée des tâches de sauvegarde de sauvegarde des machines virtuelles à partir de
Hyper-V et VMWare.


Architecture de la solution de sauvegarde en utilisant Veeam et Ceph

L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-Vsont similaires. Veeam utilise des data movers pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les data movers s'exécutent sur le serveur proxy et le serveur de référentiel. UtiliserCeph en tant que stockage backend d'un référentiel de sauvegarde, vous pouvez monter RBD ou CephFS sur un serveur physique Linux ou une machine virtuelle en tant que serveur de référentiel. 

Si les serveurs proxy et de référentiel sont des machines virtuelles à l'intérieur du cluster d'hyperviseurs, vous pouvez bénéficier du transport de données à grande vitesse sans réseau entre le disque VM, le serveur proxy et le serveur de référentiel. La meilleure configuration d'un grand cluster d'hyperviseurs consiste à déployer une VM de serveur proxy et une VM de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel hors hôte pour supprimer la charge de travail de votre VMWare de production.

Il existe trois façons d'utiliser le Ambedded Ceph l'appliance en tant que référentiels pour Veeam Backup and Replication. CephFSet RBDblockles périphériques peuvent être utilisés comme référentiel de sauvegarde sur site. Le S3object storage peut être utilisé comme niveau de capacité pour un emplacement distant.

Pour savoir comment configurer le Ceph RBD block appareil et le CephFS file system en tant que référentiel de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails sur le livre blanc à la fin de cette page.


Les serveurs proxy et de référentiel Veeam sont des machines virtuelles à l'intérieur du cluster d'hyperviseurs, avec le stockage ceph Mars 400 pour fournir RBD et cephfs
un grand cluster d'hyperviseur consiste à déployer une VM de serveur proxy et une VM de serveur de référentiel sur chaque hôte VMWare, pour avoir des données de sauvegarde à enregistrer dans ceph RBD ou cephfs

Environnement de test

CephCluster -

  • Trois Mars 400 avec 3x monitors, 20 OSD et 1x MDS (serveur de métadonnées)
  • Chaque Ceph démon s'exécute sur un double cœur Arm A72 microserver
  • Système d'exploitation: CentOS 7
  • Ceph logiciel: Nautilus 14.2.9 Arm64
  • Réseau: 4x réseau 10 Gb par Mars 400 

Veeam Backup & Replication 10, version: 10.0.1.4854

Serveur Veeam Backup

  • Processeur: Intel Xeon E5-2630 2,3 GHz DUAL
  • DRAM: 64 Go
  • Réseau: 2x 10 Gb sfp + liaison
  • Disque: 1 To pour le système, SSD SATA3 de 256 Go pour le volume
  • Windows Server 2019

 Serveur proxy Veeam

  • colocaliser avec Veeam Backup Server

 Serveur de référentiel

  • Machine virtuelle

◇ CPU: 4 cœurs 2,3 GHz

◇ DRAM: 8 Go

◇ Réseau: pont

◇ Disque: disque virtuel de 50 Go

◇ Système d'exploitation: CentOS 7.8.2003

  • Serveur Baremetal

◇ Processeur: Intel Xeon X5650 2,67 GHz DUAL

◇ DRAM: 48 Go

◇ Réseau: 2 ports 10 Gb sfp + liaison

◇ Disque: 1 To pour le système

◇ Système d'exploitation: CentOS 7.6.1810

Hyper-V Hôte

◇   Processeur: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 Go

◇   Réseau: 2 ports 10 Gb sfp + liaison

◇   Disque: 1 To pour le système

◇   Windows Server 2019

Hôte VMWare

◇   Processeur: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 Go

◇   Réseau: 2 ports 10 Gb sfp + liaison

◇   Disque: 1 To pour le système

◇   ESXi 6.5

Réseau: commutateur 10GbE

Benchmark sur diverses configurations

Pour évaluer les performances de sauvegarde de divers référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde. 

Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur SSD SATA sur un serveur, une VM Windows de Hyper-V, et une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.

(1) Sauvegarder un volume sur un lecteur SSD

Tableau 1. Sauvegardez un volume à partir d'un serveur avec un SSD SATA.

Taille du disque (données traitées)237,9 Go
Données lues depuis la source200,1 Go
Données transférées vers Ceph après la déduplication et la compression69,7 Go
Déduplication1,3X
Compression2,7X


Tableau 2.

Référentiel de sauvegarde
Durée
(sec)
Source
(%)
Proxy
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo / s)
Taux d'
écriture moyen des données
(Mo / s)
Machine virtuelle Linux,
réplique RBD 3
64683338421554110
Machine virtuelle Linux,
CephFS-réplique 3
5219725315564137
Machine virtuelle Linux,
RBD, EC
64582348324554111
Machine virtuelle Linux,
CephFS, CE
5369726274564133
Serveur Linux,
RBD, EC
5269721163561136

Remarque: les taux d'écriture moyens des données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail duCeph cluster dans ces travaux de sauvegarde.

(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V  sur le disque dur

Dans ce benchmark, nous sauvegardons un Hyper-Vinstance stockée sur un disque dur SATA. Les taux de traitement de ces travaux atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également constater que le goulot d'étranglement est à la source car leurs charges sont occupées pendant 99% de la durée du travail.Ceph cluster, la cible, la charge de travail des jobs de sauvegarde Veeam est légère. Ceph le cluster n'est occupé que de 6% à 1% du temps de travail.

Par rapport au benchmark précédent, le taux de traitement de la sauvegarde VM est bien inférieur à celui de la sauvegarde SSD. Ceci est principalement dû au fait que les données de la VM sont stockées sur un disque dur. 

Tableau 3.

Taille du disque (HDD)127 Go
Données lues depuis la source37,9 Go
Données transférées vers Cephaprès la
déduplication et la compression
21,4 Go
Déduplication3,3X
Compression1,8X


Tableau 4. Sauvegarder une machine virtuelle image sur disque dur SATA3

Référentiel de sauvegarde
Durée
(sec)
Source
(%)
Proxy
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo / s)
Taux d'
écriture moyen des données
(Mo / s)
Machine virtuelle Linux,
volume RBD, EC
36399sept3614560
Machine virtuelle Linux,
CephFSvolume,
CE
37799sept2114258,1
Serveur Linux,
volume RBD, EC
3759962214058,4

Remarque: les taux d'écriture moyens des données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail duCeph cluster dans ces travaux de sauvegarde.

(3) Sauvegarde des machines virtuelles sur ESXi sur disque dur

Ce test sauvegarde une machine virtuelle CentOS 7 et Windows 10 s'exécutant sur un disque dur de l'hôte VMWare ESXi 6.5 vers un référentiel sauvegardé par un Ceph RBD avec 4 + 2 erasure codeprotection. 

Tableau 5.

La sourceMachine virtuelle CentOSMachine virtuelle Windows 10
Taille du disque (HDD)40 Go32 Go
Données lues depuis la source1,8 Go12,9 Go
Données transférées vers Cephaprès la
déduplication et la compression
966 Mo7,7 Go
Déduplication22,1X2,5X
Compression1,9X1,7X


Tableau 6.

Source de sauvegarde
Durée
(sec)
Source
(%)
Proxy
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo / s)
Taux d'
écriture moyen des données
(Mo / s)
CentOS 712299dix50888
Windows 102449911519332

Remarque: les taux d'écriture moyens des données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail duCeph cluster dans ces travaux de sauvegarde.

Conclusions

Selon les résultats des tests, Ceph RBD et CephFSont des performances similaires. Cela répond à notre expérience concernant la référence de RBD etCephFSperformance. Comparaison des caractéristiques deCephFSet RBD, ils ont leurs avantages et leurs inconvénients. Si vous devez déployer plusieurs serveurs de référentiel, vous devez créer un RBDimage pour chaque serveur de référentiel de sauvegarde car vous ne pouvez monter que CephRBD sur un hôte. Par rapport àCephFS, l'utilisation de RBD est plus simple car elle n'a pas besoin des serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.

Si tu utilises CephFS en tant que référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le Cephgrappe. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Par rapport auCeph RBD, vous n'avez pas besoin de donner file systemun quota. Ainsi, vous pouvez traiter leCephFS comme stockage illimité pool.

Dans cette démonstration de cas d'utilisation, nos tests ne sauvegardent qu'une seule machine virtuelle dans chaque tâche de sauvegarde. D'après les rapports de test ci-dessus, nous savons que le taux d'écriture moyen des données est lié au taux de traitement et à la déduplication des données et à l'efficacité de la compression. Un disque source plus rapide réduit la durée du travail de sauvegarde et se traduit par une vitesse de traitement plus rapide. En fonction de l'infrastructure des utilisateurs, les utilisateurs peuvent déployer plusieurs travaux simultanés pour sauvegarder simultanément différents objets.Ceph storage fonctionne très bien pour prendre en charge plusieurs travaux simultanés. 

Un OSD HDD 20x Ceph cluster alimenté par 3x Ambedded Mars 400 peut offrir jusqu'à 700 Mo / s de débit d'écriture agrégé au 4 + 2 erasure code pool. Le déploiement de plusieurs travaux de sauvegarde en cours permet de réduire la durée globale de la sauvegarde. La performance maximale d'unCeph cluster est presque linéairement proportionnel au nombre total de lecteurs de disque dans le cluster.

Dans ce cas d'utilisation, nous n'avons pas testé avec S3 object storagecomme référentiel de sauvegarde. S3object storagepeut être utilisé comme niveau de capacité dans le référentiel de sauvegarde Veeam Scale-Out et le référentiel d'archives cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créerobject storage utilisateurs utilisant facilement le Ambedded UVS manager, la ceph gestion web GUI.

Télécharger
Utilisation
Ceph comme référentiel du livre blanc Veeam Backup & Replication
Utilisation Ceph comme référentiel du livre blanc Veeam Backup & Replication

Comment configurer le Ceph RBD block appareil et le CephFS file system comme référentiel de sauvegarde de Veeam pour la sauvegarde...

Download
Produits connexes
Ceph Storage Appliance - Ceph Storage Appliance
Mars 400 de face.
Ceph Storage Appliance
Mars 400

Mars 400 Ceph Storage Applianceest une solution clé en main de stockage défini par logiciel pour les entreprises et les centres de données. L'appareil...

Détails
Mars 400SES
SUSE Enterprise Storage Appareil - Mars 400SES
SUSE Enterprise Storage 6 (Nautilus) Appareil.
Mars 400SES SUSE Enterprise Storage Appareil
Mars 400SES

Mars400SES SUSE Enterprise Storage L'appareil se compose de ARM microserver matériel, 3 ans SUSE Enterprise Storage & SUSE Abonnement...

Détails

Ambedded Sauvegarde et archivage Veeam pour travailler avec Ceph introduction

Ambedded Technology Co., LTD. est un fournisseur et un fabricant taïwanais de stockage et d'informatique en nuage distribués. Ambedded offre à nos clients une haute qualité Ceph grappe, Ceph storage appliance, SUSE Enterprise Storage, ARM Stockage, stockage Kubernetes, stockage défini par logiciel, ARM serveur, SUSE Abonnement de 3 ans, stockage distribué sur ARM, Début ceph cluster en châssis 3x 1U depuis 2013. Avec à la fois une technologie de pointe et 20 ans d'expérience, Ambedded assurez-vous toujours de répondre à la demande de chaque client.