
Sauvegarde et archivage Veeam pour travailler avec Ceph
Cette étude de cas explique comment utiliser l'appliance de stockage Mars 400 ceph comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.
Ceph prend en charge le stockage d'objets, le stockage de blocs et le système de fichiers POSIX dans un seul cluster. Selon les exigences de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour répondre aux besoins de diverses stratégies de sauvegarde de stockage.
Dans cet article, nous utilisons le stockage de blocs Ceph (Ceph RBD) et le système de fichiers Ceph (Cephfs) comme référentiels de sauvegarde et comparons la durée des tâches de sauvegarde des machines virtuelles à partir d'Hyper-V et de VMWare.
Architecture de la solution de sauvegarde en utilisant Veeam et Ceph
L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-V est similaire. Veeam utilise des data movers pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les dispositifs de transfert de données s'exécutent sur le serveur proxy et le serveur de référentiel. Pour utiliser Ceph comme stockage principal d'un référentiel de sauvegarde, vous pouvez monter RBD ou CephFS sur un serveur physique ou une machine virtuelle Linux en tant que serveur de référentiel.
Si les serveurs proxy et de référentiel sont des machines virtuelles à l'intérieur du cluster de l'hyperviseur, vous pouvez bénéficier du transport de données à haut débit sans réseau entre le disque de la machine virtuelle, le serveur proxy et le serveur de référentiel. La meilleure configuration d'un grand cluster d'hyperviseur consiste à déployer une machine virtuelle de serveur proxy et une machine virtuelle de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel hors hôte pour supprimer la charge de travail de votre VMWare de production.
Il existe trois façons d'utiliser l'appliance Ambedded Ceph comme référentiels pour Veeam Backup and Replication. Les périphériques de bloc CephFS et RBD peuvent être utilisés comme référentiel de sauvegarde sur site. Le stockage d'objets S3 peut être utilisé comme niveau de capacité pour un emplacement distant.
Pour savoir comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails sur le livre blanc à la fin de cette page.
Environnement de test
Cluster Ceph
- Trois Mars 400 avec 3 moniteurs, 20 OSD et 1 MDS (serveur de métadonnées)
- Chaque démon Ceph s'exécute sur un microserveur Arm A72 double cœur
- Système d'exploitation : CentOS 7
- Logiciel Ceph : Nautilus 14.2.9 Arm64
- Réseau : 4x réseau 10Gb par Mars 400
Veeam Sauvegarde et réplication 10, Version : 10.0.1.4854
Serveur de sauvegarde Veeam
- Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE
- DRAM : 64 Go
- Réseau : 2 liaisons sfp+ 10 Go
- Disque : 1 To pour le système, SSD SATA3 de 256 Go pour le volume
- Serveur Windows 2019
Serveur proxy Veeam
- colocaliser avec Veeam Backup Server
Serveur de référentiel
- Machine virtuelle
◇ Processeur : 4 cœurs 2,3 GHz
◇ DRAM : 8 Go
◇ Réseau : pont
◇ Disque : disque virtuel de 50 Go
◇ Système d'exploitation : CentOS 7.8.2003
- Serveur Baremetal
◇ Processeur : Intel Xeon X5650 2,67 GHz DOUBLE
◇ DRAM : 48 Go
◇ Réseau : liaison sfp+ 10 Go à 2 ports
◇ Disque : 1 To pour le système
◇ Système d'exploitation : CentOS 7.6.1810
Hôte Hyper-V
◇ Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE
◇ DRAM : 64 Go
◇ Réseau : liaison sfp+ 10 Go à 2 ports
◇ Disque : 1 To pour le système
◇ Serveur Windows 2019
Hôte VMware
◇ Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE
◇ DRAM : 64 Go
◇ Réseau : liaison sfp+ 10 Go à 2 ports
◇ Disque : 1 To pour le système
◇ ESXi 6.5
Réseau : commutateur 10 GbE
Benchmark sur diverses configurations
Pour évaluer les performances de sauvegarde de divers référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde.
Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur un SSD SATA sur un serveur, une machine virtuelle Windows d'Hyper-V, une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.
(1) Sauvegarder un volume sur un disque SSD
Tableau 1. Sauvegardez un volume à partir d'un serveur avec un SSD SATA.
Taille du disque (données traitées) | 237,9 Go |
Données lues à partir de la source | 200,1 Go |
Données transférées vers Ceph après déduplication et compression | 69,7 Go |
Déduplication | 1,3X |
Compression | 2.7X |
Tableau 2.
Référentiel de sauvegarde | Durée (sec) | Provenance (%) | Proxy (%) | Réseau (%) | Cible (%) | Taux de traitement (Mo/s) | Taux moyen d'écriture de données (Mo/s) |
Machine virtuelle Linux, réplique RBD 3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Machine virtuelle Linux, réplica CephFS 3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Machine virtuelle Linux, RBD, CE | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Machine virtuelle Linux, CephFS, CE | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Serveur Linux, RBD, CE | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
Remarque : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.
(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V sur disque dur
Dans ce benchmark, nous sauvegardons une instance Hyper-V qui est stockée sur un disque dur SATA. Les taux de traitement de ces travaux atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également constater que le goulot d'étranglement se situe à la source car leurs charges sont occupées pendant 99 % de la durée du travail. Cluster Ceph, la cible, la charge de travail des tâches de sauvegarde Veeam est légère. Le cluster Ceph n'est occupé qu'à 6% à 1% du temps de travail.
Par rapport au benchmark précédent, le taux de traitement de la sauvegarde VM est bien inférieur à celui de la sauvegarde SSD. Cela est principalement dû au fait que les données de la machine virtuelle sont stockées sur un disque dur.
Tableau 3.
Taille du disque (disque dur) | 127 Go |
Données lues à partir de la source | 37,9 Go |
Données transférées vers Ceph après déduplication et compression | 21,4 Go |
Déduplication | 3.3X |
Compression | 1.8X |
Tableau 4. Sauvegarder une image de machine virtuelle sur un disque dur SATA3
Référentiel de sauvegarde | Durée (sec) | Provenance (%) | Proxy (%) | Réseau (%) | Cible (%) | Taux de traitement (Mo/s) | Taux moyen d'écriture de données (Mo/s) |
Machine virtuelle Linux, volume RBD, EC | 363 | 99 | sept | 3 | 6 | 145 | 60 |
Machine virtuelle Linux, volume CephFS, EC | 377 | 99 | sept | 2 | 1 | 142 | 58.1 |
Serveur Linux, volume RBD, CE | 375 | 99 | 6 | 2 | 2 | 140 | 58,4 |
Remarque : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.
(3) Sauvegarder les machines virtuelles sur ESXi sur le disque dur
Ce test sauvegarde une machine virtuelle CentOS 7 et une machine virtuelle Windows 10 exécutées sur un disque dur d'un hôte VMWare ESXi 6.5 dans un référentiel soutenu par un Ceph RBD avec une protection de code d'effacement 4+2.
Tableau 5.
La source | Machine virtuelle CentOS | Machine virtuelle Windows 10 |
Taille du disque (disque dur) | 40 Go | 32 Go |
Données lues à partir de la source | 1,8 Go | 12,9 Go |
Données transférées vers Ceph après déduplication et compression | 966 Mo | 7,7 Go |
Déduplication | 22.1X | 2.5X |
Compression | 1.9X | 1.7X |
Tableau 6.
Source de sauvegarde | Durée (sec) | Provenance (%) | Proxy (%) | Réseau (%) | Cible (%) | Taux de traitement (Mo/s) | Taux moyen d'écriture de données (Mo/s) |
Cent OS 7 | 122 | 99 | dix | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Remarque : Les taux moyens d'écriture de données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.
conclusion
Selon les résultats des tests, Ceph RBD et CephFS ont des performances similaires. Cela correspond à notre expérience concernant la référence des performances RBD et CephFS. En comparant les caractéristiques de CephFS et RBD, elles ont leurs avantages et leurs inconvénients. Si vous devez déployer plusieurs serveurs de référentiel, vous devez créer une image RBD pour chaque serveur de référentiel de sauvegarde, car vous ne pouvez monter Ceph RBD que sur un seul hôte. Comparé à CephFS, l'utilisation de RBD est plus simple car il n'a pas besoin des serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.
Si vous utilisez CephFS comme référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le cluster Ceph. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Par rapport au Ceph RBD, vous n'avez pas besoin d'attribuer un quota au système de fichiers. Ainsi, vous pouvez traiter le CephFS comme un pool de stockage illimité.
Dans cette démonstration de cas d'utilisation, nos tests ne sauvegardent qu'une seule machine virtuelle dans chaque tâche de sauvegarde. Selon les rapports de test ci-dessus, nous savons que le taux d'écriture moyen des données est lié au taux de traitement et à l'efficacité de la déduplication et de la compression des données. Un disque source plus rapide réduit la durée de la tâche de sauvegarde et se traduit par un taux de traitement plus rapide. Selon l'infrastructure des utilisateurs, les utilisateurs peuvent déployer plusieurs tâches simultanées pour sauvegarder simultanément différents objets. Le stockage Ceph fonctionne très bien pour prendre en charge plusieurs tâches simultanées.
Un cluster 20x HDD OSD Ceph alimenté par 3x Ambedded Mars 400 peut offrir jusqu'à 700 Mo/s de débit d'écriture agrégé au pool de codes d'effacement 4+2. Le déploiement de plusieurs tâches de sauvegarde en cours a l'avantage de réduire la durée globale de la sauvegarde. Les performances maximales d'un cluster Ceph sont presque linéairement proportionnelles au nombre total de lecteurs de disque dans le cluster.
Dans ce cas d'utilisation, nous n'avons pas testé l'utilisation du stockage d'objets S3 comme référentiel de sauvegarde. Le stockage d'objets S3 peut être utilisé comme niveau de capacité dans le référentiel de sauvegarde Veeam Scale-Out et le référentiel d'archives cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créer facilement des utilisateurs de stockage d'objets à l'aide du gestionnaire Ambedded UVS, l'interface graphique Web de gestion de ceph.
- Télécharger
Utiliser Ceph comme référentiel pour le livre blanc Veeam Backup & Replication
Comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde...
Télécharger- Produits connexes
Appareil de stockage Ceph
Mars 400PRO
UniVirStor est une appliance de stockage définie par logiciel basée sur ceph. L'appareil de stockage Ambedded Ceph intègre le logiciel Ceph optimisé,...
DétailsAppareil de stockage d'entreprise Mars 400SES SUSE
Mars 400SES
L'appliance de stockage Mars400SES SUSE Enterprise se compose d'un matériel de microserveur ARM, d'un abonnement SUSE Enterprise Storage et SUSE Linux...
Détails