
Sauvegarde et archivage Veeam pour travailler avec Ceph
Cette étude de cas explique comment utiliser
Mars 400
ceph storage appliance comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.
Ceph les soutiens
object storage,
block storage, et le POSIX
file systemle tout dans un seul cluster. Selon les besoins de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour prendre en charge les besoins de diverses stratégies de sauvegarde de stockage.
Dans cet article, nous utilisons
Ceph
block storage (
Ceph RBD) et
Ceph
file system (
Cephfs) en tant que référentiels de sauvegarde et comparez la durée des tâches de sauvegarde de sauvegarde des machines virtuelles à partir de
Hyper-V et VMWare.
Architecture de la solution de sauvegarde en utilisant Veeam et Ceph
L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-Vsont similaires. Veeam utilise des data movers pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les data movers s'exécutent sur le serveur proxy et le serveur de référentiel. UtiliserCeph en tant que stockage backend d'un référentiel de sauvegarde, vous pouvez monter RBD ou CephFS sur un serveur physique Linux ou une machine virtuelle en tant que serveur de référentiel.
Si les serveurs proxy et de référentiel sont des machines virtuelles à l'intérieur du cluster d'hyperviseurs, vous pouvez bénéficier du transport de données à grande vitesse sans réseau entre le disque VM, le serveur proxy et le serveur de référentiel. La meilleure configuration d'un grand cluster d'hyperviseurs consiste à déployer une VM de serveur proxy et une VM de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel hors hôte pour supprimer la charge de travail de votre VMWare de production.
Il existe trois façons d'utiliser le Ambedded Ceph l'appliance en tant que référentiels pour Veeam Backup and Replication. CephFSet RBDblockles périphériques peuvent être utilisés comme référentiel de sauvegarde sur site. Le S3object storage peut être utilisé comme niveau de capacité pour un emplacement distant.
Pour savoir comment configurer le Ceph RBD block appareil et le CephFS file system en tant que référentiel de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails sur le livre blanc à la fin de cette page.
Environnement de test
CephCluster -
- Trois Mars 400 avec 3x monitors, 20 OSD et 1x MDS (serveur de métadonnées)
- Chaque Ceph démon s'exécute sur un double cœur Arm A72 microserver
- Système d'exploitation: CentOS 7
- Ceph logiciel: Nautilus 14.2.9 Arm64
- Réseau: 4x réseau 10 Gb par Mars 400
Veeam Backup & Replication 10, version: 10.0.1.4854
Serveur Veeam Backup
- Processeur: Intel Xeon E5-2630 2,3 GHz DUAL
- DRAM: 64 Go
- Réseau: 2x 10 Gb sfp + liaison
- Disque: 1 To pour le système, SSD SATA3 de 256 Go pour le volume
- Windows Server 2019
Serveur proxy Veeam
- colocaliser avec Veeam Backup Server
Serveur de référentiel
- Machine virtuelle
◇ CPU: 4 cœurs 2,3 GHz
◇ DRAM: 8 Go
◇ Réseau: pont
◇ Disque: disque virtuel de 50 Go
◇ Système d'exploitation: CentOS 7.8.2003
- Serveur Baremetal
◇ Processeur: Intel Xeon X5650 2,67 GHz DUAL
◇ DRAM: 48 Go
◇ Réseau: 2 ports 10 Gb sfp + liaison
◇ Disque: 1 To pour le système
◇ Système d'exploitation: CentOS 7.6.1810
Hyper-V Hôte
◇ Processeur: Intel Xeon E5-2630 2,3 GHz DUAL
◇ DRAM: 64 Go
◇ Réseau: 2 ports 10 Gb sfp + liaison
◇ Disque: 1 To pour le système
◇ Windows Server 2019
Hôte VMWare
◇ Processeur: Intel Xeon E5-2630 2,3 GHz DUAL
◇ DRAM: 64 Go
◇ Réseau: 2 ports 10 Gb sfp + liaison
◇ Disque: 1 To pour le système
◇ ESXi 6.5
Réseau: commutateur 10GbE
Benchmark sur diverses configurations
Pour évaluer les performances de sauvegarde de divers référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde.
Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur SSD SATA sur un serveur, une VM Windows de Hyper-V, et une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.
(1) Sauvegarder un volume sur un lecteur SSD
Tableau 1. Sauvegardez un volume à partir d'un serveur avec un SSD SATA.
Taille du disque (données traitées) | 237,9 Go |
Données lues depuis la source | 200,1 Go |
Données transférées vers Ceph après la déduplication et la compression | 69,7 Go |
Déduplication | 1,3X |
Compression | 2,7X |
Tableau 2.
Référentiel de sauvegarde | Durée (sec) | Source (%) | Proxy (%) | Réseau (%) | Cible (%) | Taux de traitement (Mo / s) | Taux d' écriture moyen des données (Mo / s) |
Machine virtuelle Linux, réplique RBD 3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Machine virtuelle Linux, CephFS-réplique 3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Machine virtuelle Linux, RBD, EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Machine virtuelle Linux, CephFS, CE | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Serveur Linux, RBD, EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
Remarque: les taux d'écriture moyens des données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail duCeph cluster dans ces travaux de sauvegarde.
(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V sur le disque dur
Dans ce benchmark, nous sauvegardons un Hyper-Vinstance stockée sur un disque dur SATA. Les taux de traitement de ces travaux atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également constater que le goulot d'étranglement est à la source car leurs charges sont occupées pendant 99% de la durée du travail.Ceph cluster, la cible, la charge de travail des jobs de sauvegarde Veeam est légère. Ceph le cluster n'est occupé que de 6% à 1% du temps de travail.
Par rapport au benchmark précédent, le taux de traitement de la sauvegarde VM est bien inférieur à celui de la sauvegarde SSD. Ceci est principalement dû au fait que les données de la VM sont stockées sur un disque dur.
Tableau 3.
Taille du disque (HDD) | 127 Go |
Données lues depuis la source | 37,9 Go |
Données transférées vers Cephaprès la déduplication et la compression | 21,4 Go |
Déduplication | 3,3X |
Compression | 1,8X |
Tableau 4. Sauvegarder une machine virtuelle image sur disque dur SATA3
Référentiel de sauvegarde | Durée (sec) | Source (%) | Proxy (%) | Réseau (%) | Cible (%) | Taux de traitement (Mo / s) | Taux d' écriture moyen des données (Mo / s) |
Machine virtuelle Linux, volume RBD, EC | 363 | 99 | sept | 3 | 6 | 145 | 60 |
Machine virtuelle Linux, CephFSvolume, CE | 377 | 99 | sept | 2 | 1 | 142 | 58,1 |
Serveur Linux, volume RBD, EC | 375 | 99 | 6 | 2 | 2 | 140 | 58,4 |
Remarque: les taux d'écriture moyens des données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail duCeph cluster dans ces travaux de sauvegarde.
(3) Sauvegarde des machines virtuelles sur ESXi sur disque dur
Ce test sauvegarde une machine virtuelle CentOS 7 et Windows 10 s'exécutant sur un disque dur de l'hôte VMWare ESXi 6.5 vers un référentiel sauvegardé par un Ceph RBD avec 4 + 2 erasure codeprotection.
Tableau 5.
La source | Machine virtuelle CentOS | Machine virtuelle Windows 10 |
Taille du disque (HDD) | 40 Go | 32 Go |
Données lues depuis la source | 1,8 Go | 12,9 Go |
Données transférées vers Cephaprès la déduplication et la compression | 966 Mo | 7,7 Go |
Déduplication | 22,1X | 2,5X |
Compression | 1,9X | 1,7X |
Tableau 6.
Source de sauvegarde | Durée (sec) | Source (%) | Proxy (%) | Réseau (%) | Cible (%) | Taux de traitement (Mo / s) | Taux d' écriture moyen des données (Mo / s) |
CentOS 7 | 122 | 99 | dix | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Remarque: les taux d'écriture moyens des données sont calculés en divisant les données transférées par la durée. Ces taux représentent les charges de travail duCeph cluster dans ces travaux de sauvegarde.
Conclusions
Selon les résultats des tests, Ceph RBD et CephFSont des performances similaires. Cela répond à notre expérience concernant la référence de RBD etCephFSperformance. Comparaison des caractéristiques deCephFSet RBD, ils ont leurs avantages et leurs inconvénients. Si vous devez déployer plusieurs serveurs de référentiel, vous devez créer un RBDimage pour chaque serveur de référentiel de sauvegarde car vous ne pouvez monter que CephRBD sur un hôte. Par rapport àCephFS, l'utilisation de RBD est plus simple car elle n'a pas besoin des serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.
Si tu utilises CephFS en tant que référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le Cephgrappe. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Par rapport auCeph RBD, vous n'avez pas besoin de donner file systemun quota. Ainsi, vous pouvez traiter leCephFS comme stockage illimité pool.
Dans cette démonstration de cas d'utilisation, nos tests ne sauvegardent qu'une seule machine virtuelle dans chaque tâche de sauvegarde. D'après les rapports de test ci-dessus, nous savons que le taux d'écriture moyen des données est lié au taux de traitement et à la déduplication des données et à l'efficacité de la compression. Un disque source plus rapide réduit la durée du travail de sauvegarde et se traduit par une vitesse de traitement plus rapide. En fonction de l'infrastructure des utilisateurs, les utilisateurs peuvent déployer plusieurs travaux simultanés pour sauvegarder simultanément différents objets.Ceph storage fonctionne très bien pour prendre en charge plusieurs travaux simultanés.
Un OSD HDD 20x Ceph cluster alimenté par 3x Ambedded Mars 400 peut offrir jusqu'à 700 Mo / s de débit d'écriture agrégé au 4 + 2 erasure code pool. Le déploiement de plusieurs travaux de sauvegarde en cours permet de réduire la durée globale de la sauvegarde. La performance maximale d'unCeph cluster est presque linéairement proportionnel au nombre total de lecteurs de disque dans le cluster.
Dans ce cas d'utilisation, nous n'avons pas testé avec S3 object storagecomme référentiel de sauvegarde. S3object storagepeut être utilisé comme niveau de capacité dans le référentiel de sauvegarde Veeam Scale-Out et le référentiel d'archives cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créerobject storage utilisateurs utilisant facilement le Ambedded UVS manager, la ceph gestion web GUI.
- Télécharger
Utilisation Ceph comme référentiel du livre blanc Veeam Backup & Replication
Comment configurer le Ceph RBD block appareil et le CephFS file system comme référentiel de sauvegarde de Veeam pour la sauvegarde...
Download- Produits connexes
Ceph Storage Appliance
Mars 400
Mars 400 Ceph Storage Applianceest une solution clé en main de stockage défini par logiciel pour les entreprises et les centres de données. L'appareil...
DétailsMars 400SES SUSE Enterprise Storage Appareil
Mars 400SES
Mars400SES SUSE Enterprise Storage L'appareil se compose de ARM microserver matériel, 3 ans SUSE Enterprise Storage & SUSE Abonnement...
Détails