Sauvegarde et archivage Veeam avec lesquels travailler Ceph / Ceph storage appliance intègre une pile logicielle optimisée et conçue à cet effet Arm Le serveur offre des performances, une fiabilité, une interface utilisateur Web et une réduction du coût total de possession exceptionnelles.

Cette étude de cas explique comment utiliser le Mars 400 ceph storage appliance comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam. Ceph les soutiens object storage, block storage, et le POSIX file systemle tout dans un seul groupe. Selon les exigences de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour prendre en charge les besoins de diverses stratégies de sauvegarde de stockage. Dans cet article, nous utilisons Ceph block storage ( Ceph RBD) et Ceph file system ( Cephfs) en tant que référentiels de sauvegarde et comparez leurs durées de travail de sauvegarde de sauvegarde de machines virtuelles à partir de Hyper-Vet VMWare. Avec plus de 20 ans d'expérience dans le stockage défini par logiciel, Ambedded avec l'équipe talentueuse expérimentée dans ARM conception et fabrication d'appareils de stockage définis par logiciel.

service@ambedded.com.tw

Heures d'ouverture : 9h-18h

Pourquoi et comment utiliser le
Ceph Storage Appliance en tant que référentiels de Veeam Backup & Replication

Sauvegarde et archivage Veeam avec lesquels travailler Ceph

Cette étude de cas explique comment utiliser le
Mars 400
ceph storage appliance comme référentiels de sauvegarde de la sauvegarde et de la réplication Veeam.

Ceph les soutiens
object storage,
block storage, et le POSIX
file systemle tout dans un seul groupe. Selon les exigences de sauvegarde, les clients peuvent sélectionner différents protocoles de stockage pour prendre en charge les besoins de diverses stratégies de sauvegarde de stockage.


Dans cet article, nous utilisons
Ceph
block storage (
Ceph RBD) et
Ceph
file system (
Cephfs) en tant que référentiels de sauvegarde et comparez leurs durées de travail de sauvegarde de sauvegarde de machines virtuelles à partir de
Hyper-V et VMWare.


Architecture de la solution de sauvegarde à l'aide de Veeam et Ceph

L'architecture de sauvegarde des machines virtuelles sur VMWare et Hyper-Vsont similaires. Veeam utilise des dispositifs de transfert de données pour transférer les données des hôtes sources vers les référentiels de sauvegarde. Les dispositifs de transfert de données s'exécutent sur le serveur proxy et le serveur de référentiel. UtiliserCeph comme stockage principal d'un référentiel de sauvegarde, vous pouvez monter RBD ou CephFS sur un serveur physique ou une machine virtuelle Linux en tant que serveur de référentiel. 

Si les serveurs proxy et de référentiel sont des machines virtuelles à l'intérieur du cluster d'hyperviseurs, vous pouvez bénéficier du transport de données haut débit sans réseau entre le disque de la machine virtuelle, le serveur proxy et le serveur de référentiel. La meilleure configuration d'un grand cluster d'hyperviseurs consiste à déployer une VM de serveur proxy et une VM de serveur de référentiel sur chaque hôte VMWare. Sinon, vous pouvez déployer une machine virtuelle proxy de sauvegarde sur chaque hôte VMWare et un hôte de référentiel hors hôte pour supprimer la charge de travail de votre VMWare de production.

Il y a trois façons d'utiliser le Ambedded Ceph l'appliance comme référentiels pour Veeam Backup and Replication. CephFSet RBDblockLes appareils peuvent être utilisés comme référentiel de sauvegarde sur site. Le S3object storage peut être utilisé comme niveau de capacité pour un emplacement distant.

Pour savoir comment configurer le Ceph RBD block l'appareil et le CephFS file system en tant que référentiel de sauvegarde de Veeam pour la sauvegarde des machines virtuelles et des fichiers, vous pouvez trouver les détails sur le livre blanc à la fin de cette page.


Les serveurs proxy et de référentiel Veeam sont des machines virtuelles à l'intérieur du cluster d'hyperviseurs, avec un stockage Mars 400 ceph pour fournir RBD et cephfs
un grand cluster d'hyperviseurs consiste à déployer une VM de serveur proxy et une VM de serveur de référentiel sur chaque hôte VMWare, pour avoir des données de sauvegarde à enregistrer dans ceph RBD ou cephfs

Environnement de test

CephGroupe -

  • Trois Mars 400 avec 3x monitors, 20 OSD et 1x MDS (serveur de métadonnées)
  • Chaque Ceph le démon s'exécute sur un double cœur Arm A72 microserver
  • Système d'exploitation : CentOS 7
  • Ceph logiciel : Nautilus 14.2.9 Arm64
  • Réseau : 4 réseau 10 Go par Mars 400 

Veeam Backup & Replication 10, version : 10.0.1.4854

Serveur de sauvegarde Veeam

  • Processeur : Intel Xeon E5-2630 2,3 GHz DOUBLE
  • DRAM : 64 Go
  • Réseau : 2 x 10 Gb sfp+ liaison
  • Disque : 1 To pour le système, 256 Go SATA3 SSD pour le volume
  • Serveur Windows 2019

 Serveur proxy Veeam

  • colocaliser avec Veeam Backup Server

 Serveur de référentiel

  • Machine virtuelle

CPU : 4 cœurs 2,3 GHz

DRAM : 8 Go

Réseau : pont

◇ Disque : 50 Go de disque virtuel

Système d'exploitation : CentOS 7.8.2003

  • Serveur Baremetal

Processeur : Intel Xeon X5650 2,67 GHz DOUBLE

DRAM : 48 Go

Réseau : liaison sfp+ 2 ports 10 Gb

◇ Disque : 1 To pour le système

Système d'exploitation : CentOS 7.6.1810

Hyper-V Hôte

◇   CPU: Intel Xeon E5-2630 2.3GHz DOUBLE

◇   DRAM: 64GB

◇   réseau: liaison sfp 10Gb 2 ports +

◇   Disque : 1 To pour le système

◇   Windows Server 2019

Hôte VMware

◇   CPU: Intel Xeon E5-2630 2.3GHz DOUBLE

◇   DRAM: 64GB

◇   réseau: liaison sfp 10Gb 2 ports +

◇   Disque : 1 To pour le système

◇   ESXi 6.5

Réseau : commutateur 10GbE

Benchmark sur diverses configurations

Pour comparer les performances de sauvegarde de divers référentiels de sauvegarde, nous avons mis en place des tests avec différents référentiels de sauvegarde et trois sources de sauvegarde. 

Les sources de sauvegarde que nous utilisons pour les tests sont un volume basé sur un SSD SATA sur un serveur, une machine virtuelle Windows de Hyper-V, et une machine virtuelle CentOS 7 et une machine virtuelle Windows de VMWare.

(1)Sauvegarder un volume sur un disque SSD

Tableau 1. Sauvegardez un volume à partir d'un serveur avec un SSD SATA.

Taille du disque (données traitées)237,9 Go
Données lues à partir de la source200,1 Go
Données transférées vers Ceph après déduplication et compression69,7 Go
Déduplication1,3X
Compression2,7X


Tableau 2.

Référentiel de sauvegarde
Durée
(s)
Origine
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo/s)
Taux d'
écriture de données moyen
(Mo/s)
VM Linux,
RBD-réplique 3
64683338421554110
Machine virtuelle Linux,
CephFS-réplique 3
5219725315564137
Machine virtuelle Linux,
RBD, CE
64582348324554111
Machine virtuelle Linux,
CephFS, CE
5369726274564133
Serveur Linux,
RBD, CE
5269721163561136

Remarque : les taux d'écriture de données moyens sont calculés par les données transférées divisées par la durée. Ces taux représentent les charges de travail desCeph cluster dans ces tâches de sauvegarde.

(2) Sauvegarder une machine virtuelle Windows 10 sur Hyper-V  sur disque dur

Dans ce benchmark, nous sauvegardons un Hyper-Vinstance qui est stockée sur un disque dur SATA. Les taux de traitement de ces tâches atteignent la limite supérieure de la bande passante du disque dur. Nous pouvons également constater que le goulot d'étranglement est sur la source car leurs charges sont occupées pendant 99% de la durée du travail.Ceph cluster, la cible, la charge de travail des tâches de sauvegarde Veeam est légère. Ceph cluster n'est occupé qu'à hauteur de 6 % à 1 % du temps de travail.

Par rapport au benchmark précédent, le taux de traitement de la sauvegarde VM est bien inférieur à celui de la sauvegarde SSD. Ceci est principalement dû au fait que les données de la VM sont stockées sur un disque dur. 

Tableau 3.

Taille du disque (HDD)127 Go
Données lues à partir de la source37,9 Go
Données transférées vers Cephaprès
déduplication et compression
21,4 Go
Déduplication3,3X
Compression1,8X


Tableau 4. Sauvegarder une machine virtuelle image sur disque dur SATA3

Référentiel de sauvegarde
Durée
(s)
Origine
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo/s)
Taux d'
écriture de données moyen
(Mo/s)
VM Linux,
volume RBD, CE
3639973614560
Machine virtuelle Linux,
CephFSvolume,
CE
3779972114258,1
Serveur Linux,
volume RBD, CE
3759962214058,4

Remarque : les taux d'écriture de données moyens sont calculés par les données transférées divisées par la durée. Ces taux représentent les charges de travail desCeph cluster dans ces tâches de sauvegarde.

(3) Sauvegarder les machines virtuelles sur ESXi sur le disque dur

Ce test sauvegarde une machine virtuelle CentOS 7 et une machine virtuelle Windows 10 s'exécutant sur un disque dur de l'hôte VMWare ESXi 6.5 vers un référentiel soutenu par un Ceph RBD avec 4+2 erasure codeprotection. 

Tableau 5.

La sourceMachine virtuelle CentOSMachine virtuelle Windows 10
Taille du disque (HDD)40 Go32 Go
Données lues à partir de la source1,8 Go12,9 Go
Données transférées vers Cephaprès
déduplication et compression
966 Mo7,7 Go
Déduplication22,1X2,5X
Compression1.9X1.7X


Tableau 6.

Source de sauvegarde
Durée
(s)
Origine
(%)
Mandataire
(%)
Réseau
(%)
Cible
(%)
Taux de traitement
(Mo/s)
Taux d'
écriture de données moyen
(Mo/s)
CentOS 712299dix50888
Windows 102449911519332

Remarque : les taux d'écriture de données moyens sont calculés par les données transférées divisées par la durée. Ces taux représentent les charges de travail desCeph cluster dans ces tâches de sauvegarde.

Conclusion

D'après les résultats des tests, Ceph RBD et CephFSont des performances similaires. Cela correspond à notre expérience concernant l'indice de référence de RBD etCephFSperformance. Comparer les caractéristiques deCephFSet RBD, ils ont leurs avantages et leurs inconvénients. Si vous devez déployer plusieurs serveurs de référentiel, vous devez créer un RBDimage pour chaque serveur de référentiel de sauvegarde car vous ne pouvez monter que CephRBD sur un hôte. Par rapport àCephFS, l'utilisation de RBD est plus simple car elle n'a pas besoin des serveurs de métadonnées. Nous devons attribuer la taille de la capacité RBD lors de sa création, vous devez donc redimensionner sa capacité lorsque vous avez besoin de plus d'espace.

Si tu utilises CephFS en tant que référentiel, vous devez déployer au moins un serveur de métadonnées (MDS) dans le Cephgroupe. Nous avons également besoin d'un serveur de métadonnées de secours pour une haute disponibilité. Par rapport auCeph RBD, vous n'avez pas besoin de donner le file systemun quota. Ainsi, vous pouvez traiter leCephFS comme stockage illimité pool.

Dans cette démonstration de cas d'utilisation, nos tests sauvegardent une seule machine virtuelle dans chaque tâche de sauvegarde. Selon les rapports de test ci-dessus, nous savons que le taux d'écriture de données moyen est lié au taux de traitement et à l'efficacité de la déduplication et de la compression des données. Un disque source plus rapide réduit la durée de la tâche de sauvegarde et accélère le taux de traitement. Selon l'infrastructure des utilisateurs, les utilisateurs peuvent déployer plusieurs travaux simultanés pour sauvegarder différents objets simultanément.Ceph storage fonctionne très bien pour prendre en charge plusieurs tâches simultanées. 

Un OSD de disque dur 20x Ceph cluster alimenté par 3x Ambedded Mars 400 peut offrir jusqu'à 700 Mo/s de débit d'écriture agrégé au 4+2 erasure code pool. Le déploiement de plusieurs tâches de sauvegarde en cours permet de réduire la durée globale de la sauvegarde. Les performances maximales d'unCeph cluster est presque linéairement proportionnelle au nombre total de lecteurs de disque dans le cluster.

Dans ce cas d'utilisation, nous n'avons pas testé avec S3 object storagecomme référentiel de sauvegarde. S3object storagepeut être utilisé comme niveau de capacité dans le référentiel de sauvegarde Veeam Scale-Out et le référentiel d'archive cible pour la sauvegarde NAS. Vous pouvez facilement configurer une passerelle RADOS et créerobject storage utilisateurs utilisant facilement le Ambedded UVS manager, les ceph site de gestion GUI.

Télécharger
Utiliser
Ceph en tant que référentiel pour le livre blanc Veeam Backup & Replication
Utiliser Ceph en tant que référentiel pour le livre blanc Veeam Backup & Replication

Comment configurer le Ceph RBD block l'appareil et le CephFS file system comme référentiel de sauvegarde de Veeam pour la sauvegarde...

Download
Produits connexes
Ceph Storage Appliance - Ceph Storage Appliance
Mars 400 de face.
Ceph Storage Appliance
Mars 400

Unifié Cephune appliance de stockage définie par logiciel. Notre Ceph les appareils intègrent le Ceph logiciel, interface utilisateur...

Détails
Mars 400SES
SUSE Enterprise Storage Appareil - Mars 400SES
SUSE Enterprise Storage 6 (Nautilus) Appareil.
Mars 400SES SUSE Enterprise Storage Appareil
Mars 400SES

Mars400SES SUSE Enterprise Storage L'appareil se compose de ARM microserver matériel, 3 ans SUSE Enterprise Storage & SUSE Abonnement...

Détails

Ambedded - Un professionnel Ceph storage solution au marché.

Implanté à Taïwan depuis 2013, Ambedded Technology Co., LTD. est un Ceph storage fournisseur de solutions qui offre ARM appareils de stockage définis par logiciel avec 60 % d'économie de CapEX, 70 % de consommation d'énergie en moins et 100 % d'avantages d'évolutivité.

Pour la conception et la fabrication de stockage défini par logiciel, Ambedded équipe a une vaste expérience pour aider les clients à adopter le ceph solution dans des secteurs polyvalents, tels que les télécommunications, le médical, l'armée, les centres de données de périphérie et le stockage d'entreprise requis par la haute disponibilité.

Ambedded a offert aux clients Ceph storage solutions depuis 2013, à la fois une technologie de pointe et 20 ans d'expérience, Ambedded s'assure que les demandes de chaque client sont satisfaites.