Sauvegarde et archivage Veeam pour travailler avec Ceph / L'appliance de stockage Ceph intègre une pile logicielle optimisée et un serveur Arm spécialement conçu pour offrir des performances, une fiabilité, une interface utilisateur Web et une réduction du coût total de possession exceptionnelles.

Cette étude de cas explique comment utiliser l'appliance de stockage Mars 400 ceph comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam. Ceph prend en charge le stockage d'objets, le stockage de blocs et le système de fichiers POSIX dans un seul cluster. Selon les exigences de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour prendre en charge les besoins de diverses stratégies de sauvegarde de stockage. Dans cet article, nous utilisons le stockage par blocs Ceph (Ceph RBD) et le système de fichiers Ceph (Cephfs) comme référentiels de sauvegarde et comparons les durées de leurs tâches de sauvegarde pour la sauvegarde des machines virtuelles à partir d'Hyper-V et de VMWare. Avec plus de 20 ans d'expérience dans le stockage défini par logiciel, s'est associé à une équipe talentueuse expérimentée dans la conception et la fabrication d'appareils de stockage définis par logiciel basés sur ARM.

service@ambedded.com.tw

Heures d'ouverture : 9h-18h

Pourquoi et comment utiliser l'appliance de stockage Ceph comme référentiel de Veeam Backup & Replication

Sauvegarde et archivage Veeam pour travailler avec Ceph

Cette étude de cas explique comment utiliser l'appliance de stockage Mars 400 ceph comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.
Ceph prend en charge le stockage d'objets, le stockage de blocs et le système de fichiers POSIX dans un seul cluster. Selon les exigences de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour prendre en charge les besoins de diverses stratégies de sauvegarde de stockage.
 
Dans cet article, nous utilisons le stockage par blocs Ceph (Ceph RBD) et le système de fichiers Ceph (Cephfs) comme référentiels de sauvegarde et comparons les durées de leurs tâches de sauvegarde pour la sauvegarde des machines virtuelles à partir d'Hyper-V et de VMWare.


Architecture de la solution de sauvegarde à l'aide de Veeam et Ceph

L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-V est similaire. Veeam utilise des dispositifs de transfert de données pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les dispositifs de transfert de données s'exécutent sur le serveur proxy et le serveur de référentiel. Pour utiliser Ceph comme stockage principal d'un référentiel de sauvegarde, vous pouvez monter RBD ou CephFS sur un serveur physique ou une machine virtuelle Linux en tant que serveur de référentiel. 

Si les serveurs proxy et de référentiel sont des machines virtuelles à l'intérieur du cluster d'hyperviseurs, vous pouvez bénéficier du transport de données haut débit sans réseau entre le disque de la machine virtuelle, le serveur proxy et le serveur de référentiel. La meilleure configuration d'un grand cluster d'hyperviseurs consiste à déployer une VM de serveur proxy et une VM de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel hors hôte pour supprimer la charge de travail de votre VMWare de production.

Il existe trois façons d'utiliser l'appliance Ambedded Ceph comme référentiel pour Veeam Backup and Replication. Les périphériques de blocs CephFS et RBD peuvent être utilisés comme référentiel de sauvegarde sur site. Le stockage d'objets S3 peut être utilisé comme niveau de capacité pour un emplacement distant.

Pour savoir comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails sur le livre blanc à la fin de cette page.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

Environnement de test

Ceph Cluster

  • Trois Mars 400 avec 3 moniteurs, 20 OSD et 1 MDS (serveur de métadonnées)
  • Chaque démon Ceph s'exécute sur un microserveur Arm A72 double cœur
  • Système d'exploitation : CentOS 7
  • Logiciel Ceph : Nautilus 14.2.9 Arm64
  • Réseau : 4x 10Gb réseau par Mars 400 

Veeam Backup & Replication 10, version : 10.0.1.4854

Serveur de sauvegarde Veeam

  • Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE
  • DRAM : 64 Go
  • Réseau : 2 x 10 Gb sfp+ liaison
  • Disque : 1 To pour le système, 256 Go SATA3 SSD pour le volume
  • Serveur Windows 2019

 Serveur proxy Veeam

  • colocaliser avec Veeam Backup Server

 Serveur de référentiel

  • Machine virtuelle

CPU : 4 cœurs 2,3 GHz

DRAM : 8 Go

Réseau : pont

◇ Disque : 50 Go de disque virtuel

Système d'exploitation : CentOS 7.8.2003

  • Serveur Baremetal

Processeur : Intel Xeon X5650 2,67 GHz DOUBLE

DRAM : 48 Go

Réseau : liaison sfp+ 2 ports 10 Gb

◇ Disque : 1 To pour le système

Système d'exploitation : CentOS 7.6.1810

Hôte Hyper-V

◇   CPU: Intel Xeon E5-2630 2.3GHz DOUBLE

◇   DRAM: 64GB

◇   réseau: liaison sfp 10Gb 2 ports +

◇   Disque : 1 To pour le système

◇   Windows Server 2019

Hôte VMware

◇   CPU: Intel Xeon E5-2630 2.3GHz DOUBLE

◇   DRAM: 64GB

◇   réseau: liaison sfp 10Gb 2 ports +

◇   Disque : 1 To pour le système

◇   ESXi 6.5

Réseau : commutateur 10GbE

Benchmark sur diverses configurations

Pour comparer les performances de sauvegarde de divers référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde. 

Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur un SSD SATA sur un serveur, une machine virtuelle Windows d'Hyper-V et une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.

(1)Sauvegarder un volume sur un disque SSD

Tableau 1. Sauvegardez un volume à partir d'un serveur avec un SSD SATA.

Taille du disque (données traitées) 237,9 Go
Données lues à partir de la source 200,1 Go
Données transférées vers Ceph après déduplication et compression 69,7 Go
Déduplication 1,3X
Compression 2,7X


Tableau 2.

Référentiel de sauvegarde
Durée
(s)
Origine
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo/s)
Taux d'
écriture de données moyen
(Mo/s)
VM Linux,
RBD-réplique 3
646 83 33 84 21 554 110
VM Linux,
CephFS-réplique 3
521 97 25 31 5 564 137
Machine virtuelle Linux,
RBD, CE
645 82 34 83 24 554 111
Machine virtuelle Linux,
CephFS, CE
536 97 26 27 4 564 133
Serveur Linux,
RBD, CE
526 97 21 16 3 561 136

Remarque : les taux d'écriture de données moyens sont calculés par les données transférées divisées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V sur disque dur

Dans ce benchmark, nous sauvegardons une instance Hyper-V qui est stockée sur un disque dur SATA. Les taux de traitement de ces tâches atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également trouver que le goulot d'étranglement est sur la source car leurs charges sont occupées pendant 99% de la durée du travail. Le cluster Ceph, la cible, la charge de travail des tâches de sauvegarde Veeam est légère. Le cluster Ceph n'est occupé qu'à 6% à 1% du temps de travail.

Par rapport au benchmark précédent, le taux de traitement de la sauvegarde VM est bien inférieur à celui de la sauvegarde SSD. Ceci est principalement dû au fait que les données de la VM sont stockées sur un disque dur. 

Tableau 3.

Taille du disque (HDD) 127 Go
Données lues à partir de la source 37,9 Go
Données transférées vers Ceph après
déduplication et compression
21,4 Go
Déduplication 3,3X
Compression 1,8X


Tableau 4. Sauvegarder une image de machine virtuelle sur un disque dur SATA3

Référentiel de sauvegarde
Durée
(s)
Origine
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo/s)
Taux d'
écriture de données moyen
(Mo/s)
VM Linux,
volume RBD, CE
363 99 7 3 6 145 60

Machine virtuelle Linux, volume CephFS,
CE
377 99 7 2 1 142 58,1
Serveur Linux,
volume RBD, CE
375 99 6 2 2 140 58,4

Remarque : les taux d'écriture de données moyens sont calculés par les données transférées divisées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

(3) Sauvegarder les machines virtuelles sur ESXi sur le disque dur

Ce test sauvegarde des machines virtuelles CentOS 7 et Windows 10 s'exécutant sur un disque dur de l'hôte VMWare ESXi 6.5 vers un référentiel soutenu par un Ceph RBD avec une protection contre le code d'effacement 4+2. 

Tableau 5.

La source Machine virtuelle CentOS Machine virtuelle Windows 10
Taille du disque (HDD) 40 Go 32 Go
Données lues à partir de la source 1,8 Go 12,9 Go
Données transférées vers Ceph après
déduplication et compression
966 Mo 7,7 Go
Déduplication 22,1X 2,5X
Compression 1.9X 1.7X


Tableau 6.

Source de sauvegarde
Durée
(s)
Origine
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo/s)
Taux d'
écriture de données moyen
(Mo/s)
CentOS 7 122 99 dix 5 0 88 8
Windows 10 244 99 11 5 1 93 32

Remarque : les taux d'écriture de données moyens sont calculés par les données transférées divisées par la durée. Ces taux représentent les charges de travail du cluster Ceph dans ces tâches de sauvegarde.

Conclusion

Selon les résultats des tests, Ceph RBD et CephFS ont des performances similaires. Cela correspond à notre expérience concernant la référence des performances RBD et CephFS. En comparant les caractéristiques de CephFS et RBD, ils ont leurs avantages et leurs inconvénients. Si vous devez déployer plusieurs serveurs de référentiel, vous devez créer une image RBD pour chaque serveur de référentiel de sauvegarde car vous ne pouvez monter Ceph RBD que sur un seul hôte. Par rapport à CephFS, l'utilisation de RBD est plus simple car elle n'a pas besoin des serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.

Si vous utilisez CephFS comme référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le cluster Ceph. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Par rapport au Ceph RBD, vous n'avez pas besoin de donner de quota au système de fichiers. Ainsi, vous pouvez traiter le CephFS comme un pool de stockage illimité.

Dans cette démonstration de cas d'utilisation, nos tests sauvegardent une seule machine virtuelle dans chaque tâche de sauvegarde. Selon les rapports de test ci-dessus, nous savons que le taux d'écriture de données moyen est lié au taux de traitement et à l'efficacité de la déduplication et de la compression des données. Un disque source plus rapide réduit la durée de la tâche de sauvegarde et accélère le taux de traitement. Selon l'infrastructure des utilisateurs, les utilisateurs peuvent déployer plusieurs travaux simultanés pour sauvegarder différents objets simultanément. Le stockage Ceph fonctionne très bien pour prendre en charge plusieurs tâches simultanées. 

Un cluster Ceph HDD OSD 20x alimenté par 3x Ambedded Mars 400 peut offrir un débit d'écriture agrégé jusqu'à 700 Mo/s vers le pool de codes d'effacement 4+2. Le déploiement de plusieurs tâches de sauvegarde en cours permet de réduire la durée globale de la sauvegarde. Les performances maximales d'un cluster Ceph sont presque linéairement proportionnelles au nombre total d'unités de disque dans le cluster.

Dans ce cas d'utilisation, nous n'avons pas testé l'utilisation du stockage d'objets S3 comme référentiel de sauvegarde. Le stockage d'objets S3 peut être utilisé comme niveau de capacité dans le référentiel de sauvegarde Veeam Scale-Out et le référentiel d'archive cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créer facilement des utilisateurs de stockage d'objets à l'aide du gestionnaire Ambedded UVS, l'interface graphique Web de gestion ceph.

Télécharger
Utiliser Ceph comme référentiel pour le livre blanc Veeam Backup & Replication
Utiliser Ceph comme référentiel pour le livre blanc Veeam Backup & Replication

Comment configurer le périphérique de bloc Ceph RBD et le système de fichiers CephFS en tant que référentiel de sauvegarde de Veeam pour la sauvegarde...

Download
Produits connexes
Appareil de stockage Ceph - Appareil de stockage Ceph avant Mars 400.
Appareil de stockage Ceph
Mars 400PRO

UniVirStor est une appliance de stockage définie par logiciel basée sur ceph. L'appliance de stockage Ceph intégrée intègre le logiciel Ceph optimisé,...

Détails
Appliance de stockage d'entreprise SUSE Mars 400SES - Appliance Mars 400SES SUSE Enterprise Storage 6 (Nautilus).
Appliance de stockage d'entreprise SUSE Mars 400SES
Mars 400SES

L'appliance de stockage d'entreprise Mars400SES SUSE comprend du matériel de microserveur ARM, un abonnement de 3 ans à SUSE Enterprise Storage & SUSE...

Détails

Ambedded - Une solution de stockage Ceph professionnelle sur le marché.

Implanté à Taïwan depuis 2013, Ambedded Technology Co., LTD. est un fournisseur de solutions de stockage Ceph qui propose des appliances de stockage définies par logiciel basées sur ARM avec 60 % d'économie de CapEX, 70 % de consommation d'énergie en moins et 100 % d'avantages d'évolutivité.

Pour la conception et la fabrication de stockage défini par logiciel, l'équipe Ambedded possède une vaste expérience pour aider les clients à adopter la solution ceph dans des secteurs polyvalents, tels que les télécommunications, le médical, l'armée, les centres de données de périphérie et le stockage d'entreprise requis par la haute disponibilité.

Ambedded propose aux clients des solutions de stockage Ceph depuis 2013, à la fois une technologie de pointe et 20 ans d'expérience, Ambedded veille à ce que les demandes de chaque client soient satisfaites.