Sauvegarde et archivage Veeam pour travailler avec Ceph

Pourquoi et comment utiliser l'appliance de stockage Ceph comme référentiels de Veeam Backup & Replication

Pourquoi et comment utiliser l'appliance de stockage Ceph comme référentiels de Veeam Backup & Replication

Sauvegarde et archivage Veeam pour travailler avec Ceph

Cette étude de cas explique comment utiliser l'appliance de stockage Mars 400 ceph comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.
Ceph prend en charge le stockage d'objets, le stockage de blocs et le système de fichiers POSIX dans un seul cluster. Selon les exigences de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour répondre aux besoins de diverses stratégies de sauvegarde de stockage.
 
Dans cet article, nous utilisons le stockage de blocs Ceph (Ceph RBD) et le système de fichiers Ceph (Cephfs) comme référentiels de sauvegarde et comparons la durée des tâches de sauvegarde des machines virtuelles à partir d'Hyper-V et de VMWare.


Architecture de la solution de sauvegarde en utilisant Veeam et Ceph

L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-V est similaire. Veeam utilise des data movers pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les dispositifs de transfert de données s'exécutent sur le serveur proxy et le serveur de référentiel. Pour utiliser Ceph comme stockage principal d'un référentiel de sauvegarde, vous pouvez monter RBD ou CephFS sur un serveur physique ou une machine virtuelle Linux en tant que serveur de référentiel. 

Si les serveurs proxy et de référentiel sont des machines virtuelles à l'intérieur du cluster de l'hyperviseur, vous pouvez bénéficier du transport de données à haut débit sans réseau entre le disque de la machine virtuelle, le serveur proxy et le serveur de référentiel. La meilleure configuration d'un grand cluster d'hyperviseur consiste à déployer une machine virtuelle de serveur proxy et une machine virtuelle de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel hors hôte pour supprimer la charge de travail de votre VMWare de production.

Il existe trois façons d'utiliser l'appliance Ambedded Ceph comme référentiels pour Veeam Backup and Replication. Les périphériques de bloc CephFS et RBD peuvent être utilisés comme référentiel de sauvegarde sur site. Le stockage d'objets S3 peut être utilisé comme niveau de capacité pour un emplacement distant.

Pour savoir comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails sur le livre blanc à la fin de cette page.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

Environnement de test

Cluster Ceph

  • Trois Mars 400 avec 3 moniteurs, 20 OSD et 1 MDS (serveur de métadonnées)
  • Chaque démon Ceph s'exécute sur un microserveur Arm A72 double cœur
  • Système d'exploitation : CentOS 7
  • Logiciel Ceph : Nautilus 14.2.9 Arm64
  • Réseau : 4x réseau 10Gb par Mars 400 

Veeam Sauvegarde et réplication 10, Version : 10.0.1.4854

Serveur de sauvegarde Veeam

  • Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE
  • DRAM : 64 Go
  • Réseau : 2 liaisons sfp+ 10 Go
  • Disque : 1 To pour le système, SSD SATA3 de 256 Go pour le volume
  • Serveur Windows 2019

 Serveur proxy Veeam

  • colocaliser avec Veeam Backup Server

 Serveur de référentiel

  • Machine virtuelle

◇ Processeur : 4 cœurs 2,3 GHz

◇ DRAM : 8 Go

◇ Réseau : pont

◇ Disque : disque virtuel de 50 Go

◇ Système d'exploitation : CentOS 7.8.2003

  • Serveur Baremetal

◇ Processeur : Intel Xeon X5650 2,67 GHz DOUBLE

◇ DRAM : 48 Go

◇ Réseau : liaison sfp+ 10 Go à 2 ports

◇ Disque : 1 To pour le système

◇ Système d'exploitation : CentOS 7.6.1810

Hôte Hyper-V

◇   Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE

◇   DRAM : 64 Go

◇   Réseau : liaison sfp+ 10 Go à 2 ports

◇   Disque : 1 To pour le système

◇   Serveur Windows 2019

Hôte VMware

◇   Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE

◇   DRAM : 64 Go

◇   Réseau : liaison sfp+ 10 Go à 2 ports

◇   Disque : 1 To pour le système

◇   ESXi 6.5

Réseau : commutateur 10 GbE

Benchmark sur diverses configurations

Pour évaluer les performances de sauvegarde de divers référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde. 

Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur un SSD SATA sur un serveur, une machine virtuelle Windows d'Hyper-V, une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.

(1) Sauvegarder un volume sur un disque SSD

Tableau 1. Sauvegardez un volume à partir d'un serveur avec un SSD SATA.

Taille du disque (données traitées)237,9 Go
Données lues à partir de la source200,1 Go
Données transférées vers Ceph après déduplication et compression69,7 Go
Déduplication1,3X
Compression2.7X


Tableau 2.

Référentiel de sauvegarde
Durée
(sec)
Provenance
(%)
Proxy
(%)
Réseau
(%)
Cible
(%)
Taux de traitement (Mo/s)
Taux moyen
d'écriture de données
(Mo/s)
Machine virtuelle Linux,
réplique RBD 3
64683338421554110
Machine virtuelle Linux,
réplica CephFS 3
5219725315564137
Machine virtuelle Linux,
RBD, CE
64582348324554111
Machine virtuelle Linux,
CephFS, CE
5369726274564133
Serveur Linux,
RBD, CE
5269721163561136

Remarque : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V sur disque dur

Dans ce benchmark, nous sauvegardons une instance Hyper-V qui est stockée sur un disque dur SATA. Les taux de traitement de ces travaux atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également constater que le goulot d'étranglement se situe à la source car leurs charges sont occupées pendant 99 % de la durée du travail. Cluster Ceph, la cible, la charge de travail des tâches de sauvegarde Veeam est légère. Le cluster Ceph n'est occupé qu'à 6% à 1% du temps de travail.

Par rapport au benchmark précédent, le taux de traitement de la sauvegarde VM est bien inférieur à celui de la sauvegarde SSD. Cela est principalement dû au fait que les données de la machine virtuelle sont stockées sur un disque dur. 

Tableau 3.

Taille du disque (disque dur)127 Go
Données lues à partir de la source37,9 Go
Données transférées vers Ceph après
déduplication et compression
21,4 Go
Déduplication3.3X
Compression1.8X


Tableau 4. Sauvegarder une image de machine virtuelle sur un disque dur SATA3

Référentiel de sauvegarde
Durée
(sec)
Provenance
(%)
Proxy
(%)
Réseau
(%)
Cible
(%)
Taux de traitement (Mo/s)
Taux moyen
d'écriture de données
(Mo/s)
Machine virtuelle Linux,
volume RBD, EC
36399sept3614560
Machine virtuelle Linux,
volume CephFS,
EC
37799sept2114258.1
Serveur Linux,
volume RBD, CE
3759962214058,4

Remarque : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

(3) Sauvegarder les machines virtuelles sur ESXi sur le disque dur

Ce test sauvegarde une machine virtuelle CentOS 7 et une machine virtuelle Windows 10 exécutées sur un disque dur d'un hôte VMWare ESXi 6.5 dans un référentiel soutenu par un Ceph RBD avec une protection de code d'effacement 4+2. 

Tableau 5.

La sourceMachine virtuelle CentOSMachine virtuelle Windows 10
Taille du disque (disque dur)40 Go32 Go
Données lues à partir de la source1,8 Go12,9 Go
Données transférées vers Ceph après
déduplication et compression
966 Mo7,7 Go
Déduplication22.1X2.5X
Compression1.9X1.7X


Tableau 6.

Source de sauvegarde
Durée
(sec)
Provenance
(%)
Proxy
(%)
Réseau
(%)
Cible
(%)
Taux de traitement (Mo/s)
Taux moyen
d'écriture de données
(Mo/s)
Cent OS 712299dix50888
Windows 102449911519332

Remarque : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

conclusion

Selon les résultats des tests, Ceph RBD et CephFS ont des performances similaires. Cela correspond à notre expérience concernant la référence des performances RBD et CephFS. En comparant les caractéristiques de CephFS et RBD, elles ont leurs avantages et leurs inconvénients. Si vous devez déployer plusieurs serveurs de référentiel, vous devez créer une image RBD pour chaque serveur de référentiel de sauvegarde, car vous ne pouvez monter Ceph RBD que sur un seul hôte. Comparé à CephFS, l'utilisation de RBD est plus simple car il n'a pas besoin des serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.

Si vous utilisez CephFS comme référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le cluster Ceph. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Par rapport au Ceph RBD, vous n'avez pas besoin d'attribuer un quota au système de fichiers. Ainsi, vous pouvez traiter le CephFS comme un pool de stockage illimité.

Dans cette démonstration de cas d'utilisation, nos tests ne sauvegardent qu'une seule machine virtuelle dans chaque tâche de sauvegarde. Selon les rapports de test ci-dessus, nous savons que le taux d'écriture moyen des données est lié au taux de traitement et à l'efficacité de la déduplication et de la compression des données. Un disque source plus rapide réduit la durée de la tâche de sauvegarde et se traduit par un taux de traitement plus rapide. Selon l'infrastructure des utilisateurs, les utilisateurs peuvent déployer plusieurs tâches simultanées pour sauvegarder simultanément différents objets. Le stockage Ceph fonctionne très bien pour prendre en charge plusieurs tâches simultanées. 

Un cluster 20x HDD OSD Ceph alimenté par 3x Ambedded Mars 400 peut offrir jusqu'à 700 Mo/s de débit d'écriture agrégé au pool de codes d'effacement 4+2. Le déploiement de plusieurs tâches de sauvegarde en cours a l'avantage de réduire la durée globale de la sauvegarde. Les performances maximales d'un cluster Ceph sont presque linéairement proportionnelles au nombre total de lecteurs de disque dans le cluster.

Dans ce cas d'utilisation, nous n'avons pas testé l'utilisation du stockage d'objets S3 comme référentiel de sauvegarde. Le stockage d'objets S3 peut être utilisé comme niveau de capacité dans le référentiel de sauvegarde Veeam Scale-Out et le référentiel d'archives cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créer facilement des utilisateurs de stockage d'objets à l'aide du gestionnaire Ambedded UVS, l'interface graphique Web de gestion de ceph.

Télécharger
Utiliser Ceph comme référentiel pour le livre blanc Veeam Backup & Replication
Utiliser Ceph comme référentiel pour le livre blanc Veeam Backup & Replication

Comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde...

Télécharger
Produits connexes
Appareil de stockage Ceph - Appareil de stockage Ceph Mars 400 avant.
Appareil de stockage Ceph
Mars 400PRO

UniVirStor est une appliance de stockage définie par logiciel basée sur ceph. L'appareil de stockage Ambedded Ceph intègre le logiciel Ceph optimisé,...

Détails
Appareil de stockage d'entreprise Mars 400SES SUSE - Appareil Mars 400SES SUSE Enterprise Storage 6 (Nautilus).
Appareil de stockage d'entreprise Mars 400SES SUSE
Mars 400SES

L'appliance de stockage Mars400SES SUSE Enterprise se compose d'un matériel de microserveur ARM, d'un abonnement SUSE Enterprise Storage et SUSE Linux...

Détails

Ambedded - Une solution de stockage Ceph professionnelle sur le marché.

Situé à Taïwan depuis 2013,Ambedded Technology Co., LTD.est un fournisseur de solutions de stockage Ceph qui propose des appliances de stockage définies par logiciel basées sur ARM avec 60 % d'économies de CapEX, 70 % de consommation d'énergie en moins et 100 % d'avantages évolutifs.

Pour la conception et la fabrication de stockage défini par logiciel, l'équipe d'Ambedded possède une vaste expérience pour aider les clients à adopter la solution ceph dans des secteurs polyvalents, tels que les télécommunications, le médical, l'armée, les centres de données en périphérie et le stockage d'entreprise requis par HA.

Ambedded propose à ses clients des solutions de stockage Ceph depuis 2013, à la fois une technologie de pointe et 20 ans d'expérience, Ambedded s'assure que les demandes de chaque client sont satisfaites.