Sauvegarde et archivage Veeam pour fonctionner avec Ceph| Gestion économique du stockage Ceph | Ambedded

Pourquoi et comment utiliser l'appliance de stockage Ceph comme référentiels de sauvegarde et de réplication Veeam| Mars 400 - Stockage Ceph haute densité

Pourquoi et comment utiliser l'appliance de stockage Ceph comme référentiels de sauvegarde et de réplication Veeam

Sauvegarde et archivage Veeam pour fonctionner avec Ceph

Cette étude de cas explique comment utiliser l'appliance de stockage Ceph Mars 400 comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.
Ceph prend en charge le stockage d'objets, le stockage en bloc et le système de fichiers POSIX, le tout dans un seul cluster. Selon les besoins de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour répondre aux besoins de différentes stratégies de sauvegarde de stockage.
 
Dans cet article, nous utilisons le stockage en bloc Ceph (Ceph RBD) et le système de fichiers Ceph (Cephfs) comme référentiels de sauvegarde et comparons leurs durées de travail de sauvegarde pour la sauvegarde des machines virtuelles à partir de Hyper-V et VMWare.


Architecture de solution de sauvegarde en utilisant Veeam et Ceph

L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-V est similaire. Veeam utilise des transferts de données pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les transferts de données s'exécutent sur le serveur proxy et le serveur de référentiel. Pour utiliser Ceph comme stockage de sauvegarde d'un référentiel, vous pouvez monter RBD ou CephFS sur un serveur physique ou une machine virtuelle Linux en tant que serveur de référentiel.

Si les serveurs proxy et de dépôt sont des machines virtuelles à l'intérieur du cluster hyperviseur, vous pouvez bénéficier d'un transport de données à haute vitesse sans réseau entre le disque de la machine virtuelle, le serveur proxy et le serveur de dépôt. La meilleure configuration d'un grand cluster hyperviseur consiste à déployer une machine virtuelle de serveur proxy et une machine virtuelle de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle de proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel externe pour alléger la charge de travail de vos machines virtuelles de production VMWare.

Il existe trois façons d'utiliser l'appliance Ceph Ambedded comme référentiels pour Veeam Backup and Replication.CephFS et les dispositifs de bloc RBD peuvent être utilisés comme référentiel de sauvegarde sur site.The Stockage d'objets S3 peut être utilisé comme couche de capacité pour un emplacement distant.

Pour savoir comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que dépôt de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails dans le livre blanc à la fin de cette page.


Les serveurs proxy et de stockage Veeam sont des machines virtuelles à l'intérieur du cluster hyperviseur, avec un stockage Mars 400 ceph pour fournir RBD et cephfs
Un grand cluster hyperviseur consiste à déployer un serveur proxy VM et un serveur de stockage VM sur chaque hôte VMWare, afin de sauvegarder les données dans ceph RBD ou cephfs

Environnement de Test

Grappe Ceph

  • Trois Mars 400 avec 3x écrans, 20 OSDs, et 1x MDS (serveur de métadonnées)
  • Chaque démon Ceph fonctionne sur un microserveur Arm A72 bicœur
  • Système d'Exploitation: CentOS 7
  • Logiciel Ceph: Nautilus 14.2.9 Arm64
  • Réseau: 4x 10Gb réseau par Mars 400 

Veeam Sauvegarde & Réplication 10, Version: 10.0.1.4854

Serveur de Sauvegarde Veeam

  • CPU : Intel Xeon E5-2630 2.3GHz DOUBLE
  • DRAM : 64GB
  • Réseau : 2x 10Gb sfp+ en agrégation de lien
  • Disque : 1TB pour le système, 256GB SSD SATA3 pour le volume
  • Windows Server 2019

 Serveur Proxy Veeam

  • Colocaliser avec le Serveur de Sauvegarde Veeam

 Serveur de Référentiel

  • Machine Virtuelle

◇ CPU : 4 cœurs 2.3GHz

◇  DRAM : 8GB

◇  Réseau : pont

◇  Disque : disque virtuel de 50GB

◇  OS : CentOS 7.8.2003

  • Serveur Baremetal

◇  CPU : Intel Xeon X5650 2.67GHz DUAL

◇  DRAM : 48GB

◇  Réseau : 2-port 10Gb sfp+ en liaison

◇  Disque : 1TB pour le système

◇  OS : CentOS 7.6.1810

Hôte Hyper-V

◇  Processeur : Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM : 64 Go

◇  Réseau : agrégation de liens 10Gb sfp+ à 2 ports

◇  Disque : 1 To pour le système

◇  Serveur Windows 2019

Hôte VMWare

◇  Processeur : Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM : 64 Go

◇  Réseau : agrégation de liens 10Gb sfp+ à 2 ports

◇  Disque : 1 To pour le système

◇  ESXi 6.5

Réseau : commutateur 10GbE

Benchmarck sur différents configurations

Pour évaluer les performances de sauvegarde de différents référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde.

Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur un SSD SATA sur un serveur, une machine virtuelle Windows de Hyper-V, et une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.

(1) Sauvegarder un volume sur un disque SSD

Tableau 1. Sauvegarder un volume à partir d'un serveur avec un SSD SATA.

Taille du disque (Données traitées)237,9 Go
Données lues depuis la source200,1 Go
Transfert de données vers Ceph après déduplication et compression69,7GB
Déduplication1,3X
Compression2,7X


Table 2.

Sauvegarde
Dépôt
Durée
(sec)
Source
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Traitement
Débit (MB/s)
Moyenne
Écriture des données
Débit (MB/s)
Machine virtuelle Linux,
Réplique RBD 3
64683338421554110
Machine virtuelle Linux,
Réplique CephFS 3
5219725315564137
Machine virtuelle Linux,
RBD, EC
64582348324554111
Machine virtuelle Linux,
CephFS, EC
5369726274564133
Serveur Linux,
RBD, EC
5269721163561136

Note : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V sur un disque dur

Dans ce benchmark, nous sauvegardons une instance Hyper-V stockée sur un disque dur SATA. Les taux de traitement de ces emplois atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également constater que le goulot d'étranglement se trouve à la source car leurs charges sont occupées pendant 99% de la durée du travail. Cluster Ceph, la cible, la charge de travail des tâches de sauvegarde Veeam est légère. Le cluster Ceph est occupé seulement de 6% à 1% du temps de travail.

Comparé au précédent test de référence, le taux de traitement de la sauvegarde de la machine virtuelle est beaucoup plus bas que celui de la sauvegarde SSD.Cela est principalement dû au fait que les données de la machine virtuelle sont stockées sur un disque dur.

Tableau 3.

Taille du disque (HDD)127 Go
Données lues depuis la source37,9 Go
Données transférées vers Ceph après
Déduplication et Compression
21,4 Go
Déduplication3,3X
Compression1,8X


Tableau 4. Sauvegarde d'une image de machine virtuelle sur un disque dur SATA3

Sauvegarde
Dépôt
Durée
(sec)
Source
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Traitement
Débit (MB/s)
Moyenne
Écriture des données
Débit (MB/s)
Machine virtuelle Linux,
Volume RBD, EC
3639973614560
Machine virtuelle Linux,
Volume CephFS,
EC
3779972114258.1
Serveur Linux,
Volume RBD, EC
3759962214058.4

Note : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

(3)Sauvegarde des machines virtuelles sur ESXi sur disque dur

Ce test sauvegarde une machine virtuelle CentOS 7 et une machine virtuelle Windows 10 exécutées sur un disque dur d'un hôte VMWare ESXi 6.5 vers un référentiel soutenu par un Ceph RBD avec une protection de code d'effacement 4+2.

Tableau 5.

SourceVM CentOSVM Windows 10
Taille du disque (HDD)40GB32GB
Données lues depuis la source1,8GB12,9GB
Données transférées vers Ceph après
Déduplication et Compression
966MB7,7GB
Déduplication22,1X2,5X
Compression1.9X1.7X


Tableau 6.

Sauvegarde
Source
Durée
(sec)
Source
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Traitement
Débit (MB/s)
Moyenne
Écriture des données
Débit (MB/s)
CentOS 7122991050888
Windows 102449911519332

Note : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

Conclusions

Selon les résultats du test, Ceph RBD et CephFS ont des performances similaires. Cela correspond à notre expérience en ce qui concerne les performances de référence de RBD et CephFS. En comparant les caractéristiques de CephFS et RBD, ils ont leurs avantages et leurs inconvénients. Si vous avez besoin de déployer plusieurs serveurs de dépôt, vous devez créer une image RBD pour chaque serveur de dépôt de sauvegarde car vous ne pouvez monter Ceph RBD que sur un seul hôte. Comparé à CephFS, l'utilisation de RBD est plus simple car il n'a pas besoin de serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.

Si vous utilisez CephFS comme référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le cluster Ceph. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Comparé au Ceph RBD, vous n'avez pas besoin de donner au système de fichiers un quota. Ainsi, vous pouvez considérer le CephFS comme un pool de stockage illimité.

Dans cette démonstration de cas d'utilisation, nos tests sauvegardent uniquement une machine virtuelle dans chaque tâche de sauvegarde. Selon les rapports de test ci-dessus, nous savons que le taux d'écriture des données moyennes est lié au taux de traitement et à l'efficacité de la déduplication et de la compression des données. Un disque source plus rapide réduit la durée de la tâche de sauvegarde et entraîne un taux de traitement plus rapide. Selon l'infrastructure des utilisateurs, ces derniers peuvent déployer plusieurs tâches simultanées pour sauvegarder différents objets en même temps. Le stockage Ceph fonctionne très bien en prenant en charge plusieurs tâches simultanées.

Un cluster Ceph OSD HDD 20x alimenté par 3x Ambedded Mars 400 peut offrir jusqu'à 700 Mo/s de débit d'écriture agrégé au pool de code d'effacement 4+2. Le déploiement de plusieurs tâches de sauvegarde actuelles permet de réduire la durée globale de sauvegarde. Les performances maximales d'un cluster Ceph sont presque proportionnelles au nombre total de disques dans le cluster.

Dans ce cas d'utilisation, nous n'avons pas testé l'utilisation du stockage d'objet S3 en tant que référentiel de sauvegarde. Le stockage d'objet S3 peut être utilisé comme couche de capacité dans le référentiel de sauvegarde échelonné de Veeam et comme référentiel d'archive cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créer des utilisateurs de stockage d'objet facilement en utilisant le gestionnaire UVS Ambedded, l'interface web de gestion de Ceph.

Télécharger
Utiliser Ceph comme référentiel pour le livre blanc de sauvegarde et de réplication Veeam
Utiliser Ceph comme référentiel pour le livre blanc de sauvegarde et de réplication Veeam

Comment configurer le dispositif de blocs Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde...

Télécharger
Produits connexes
Appareil de stockage Ceph Mars 400PRO - Appareil de stockage Ceph Mars 400 avant.
Appareil de stockage Ceph Mars 400PRO
Mars 400PRO

L'appliance Mars 400 Ceph est conçue pour répondre aux besoins de stockage de données cloud-native à haute capacité. Il utilise un disque dur pour...

Détails

Sauvegarde et archivage Veeam pour fonctionner avec Ceph| Solutions de stockage Ceph pour microserveurs ARM | Ambedded

Implantée à Taïwan depuis 2013, Ambedded Technology Co., LTD. est un fournisseur de solutions de stockage de blocs et d'objets. Leurs principales solutions de gestion de stockage de données comprennent la technologie de stockage Ceph, l'intégration de serveurs ARM, le stockage défini par logiciel, l'optimisation du stockage d'entreprise, les économies de coûts des appareils Ceph, les logiciels de gestion de stockage et les solutions de stockage de blocs et d'objets. Ils fournissent un support professionnel pour Ceph, des systèmes de stockage évolutifs avec une grande efficacité de stockage dans le centre de données.

Ambedded propose des solutions de stockage Ceph de pointe sur des microserveurs ARM, adaptées aux acheteurs B2B cherchant à optimiser leurs systèmes de stockage d'entreprise. Nos appliances Ceph clés en main réduisent le coût total de possession (TCO) et simplifient la gestion du stockage, prenant en charge le stockage de blocs, de systèmes de fichiers et d'objets sur une plateforme unifiée. Avec un engagement envers l'innovation et le soutien à la clientèle, Ambedded est votre partenaire de confiance pour des solutions évolutives et efficaces d'Appliance de Stockage d'Entreprise SUSE. Bénéficiez d'une intégration transparente et d'un support professionnel pour exploiter pleinement le potentiel de la technologie Ceph dans votre entreprise.

Ambedded fournit aux clients des systèmes de stockage évolutifs et une gestion de stockage Ceph rentable depuis 2013. Grâce à une technologie avancée et à 20 ans d'expérience, Ambedded veille à ce que les besoins de chaque client soient satisfaits.