Kopia zapasowa i archiwizacja Veeam do pracy z Ceph

Dlaczego i jak używać urządzenia Ceph Storage Appliance jako repozytoriów rozwiązania Veeam Backup & Replication

Dlaczego i jak używać urządzenia Ceph Storage Appliance jako repozytoriów rozwiązania Veeam Backup & Replication

Kopia zapasowa i archiwizacja Veeam do pracy z Ceph

To studium przypadku wyjaśnia, jak używać urządzenia pamięci masowej Mars 400 ceph jako repozytoriów kopii zapasowych kopii zapasowych i replikacji Veeam.
Ceph obsługuje pamięć obiektową, pamięć blokową i system plików POSIX w jednym klastrze. Zgodnie z wymaganiami dotyczącymi tworzenia kopii zapasowych klienci mogą wybrać różne protokoły pamięci masowej, aby zaspokoić potrzeby różnych strategii tworzenia kopii zapasowych pamięci masowej.
 
W tym artykule używamy magazynu blokowego Ceph (Ceph RBD) i systemu plików Ceph (Cephfs) jako repozytoriów kopii zapasowych i porównujemy czasy trwania ich zadań tworzenia kopii zapasowych maszyn wirtualnych z Hyper-V i VMWare.


Architektura rozwiązania do tworzenia kopii zapasowych z wykorzystaniem rozwiązań Veeam i Ceph

Architektura tworzenia kopii zapasowych maszyn wirtualnych na VMWare i Hyper-V jest podobna. Firma Veeam wykorzystuje narzędzia do przenoszenia danych do przesyłania danych z hostów źródłowych do repozytoriów kopii zapasowych. Przenoszące dane działają na serwerze proxy i serwerze repozytorium. Aby użyć Ceph jako magazynu zaplecza repozytorium kopii zapasowych, możesz zamontować RBD lub CephFS na serwerze fizycznym z systemem Linux lub maszynie wirtualnej jako serwer repozytorium. 

Jeśli serwery proxy i repozytoriów są maszynami wirtualnymi w klastrze hipernadzorcy, można skorzystać z możliwości szybkiego przesyłania danych bez użycia sieci między dyskiem maszyny wirtualnej, serwerem proxy i serwerem repozytorium. Najlepszą konfiguracją dużego klastra hypervisora ​​jest wdrożenie jednej maszyny wirtualnej serwera proxy i jednej maszyny wirtualnej serwera repozytorium na każdym hoście VMWare. W przeciwnym razie można wdrożyć jedną kopię zapasową maszyny wirtualnej proxy na każdym hoście VMWare i jeden host repozytorium poza hostem, aby usunąć obciążenie z produkcyjnego VMWare.

Istnieją trzy sposoby wykorzystania urządzenia Ambedded Ceph jako repozytoriów rozwiązania Veeam Backup and Replication. Urządzenia blokowe CephFS i RBD mogą być używane jako lokalne repozytorium kopii zapasowych. Obiektowa pamięć masowa S3 może służyć jako warstwa pojemności dla lokalizacji zdalnej.

Informacje na temat konfigurowania urządzenia blokowego Ceph RBD i systemu plików CephFS jako repozytorium kopii zapasowych Veeam do tworzenia kopii zapasowych maszyn wirtualnych i plików można znaleźć w białej księdze na końcu tej strony.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

Środowisko testowe

klaster ceph

  • Trzy Mars 400 z 3x monitorami, 20 OSD i 1x MDS (serwer metadanych)
  • Każdy demon Ceph działa na jednym dwurdzeniowym mikroserwerze Arm A72
  • System operacyjny: CentOS 7
  • Oprogramowanie Ceph: Nautilus 14.2.9 Arm64
  • Sieć: 4x sieć 10Gb na Mars 400 

Veeam Backup & Replication 10, wersja: 10.0.1.4854

Serwer kopii zapasowych Veeam

  • Procesor: Intel Xeon E5-2630 2,3 GHz PODWÓJNY
  • DRAM: 64 GB
  • Sieć: połączenie 2x 10 Gb sfp+
  • Dysk: 1 TB dla systemu, 256 GB SATA3 SSD dla woluminu
  • Windows Server 2019

 Serwer proxy Veeam

  • kolokacji z Veeam Backup Server

 Serwer repozytorium

  • Maszyna wirtualna

◇Procesor: 4 rdzenie 2,3 GHz

◇ DRAM: 8 GB

◇Sieć: most

◇Dysk: dysk wirtualny 50 GB

◇ System operacyjny: CentOS 7.8.2003

  • Serwer Baremetal

◇Procesor: Intel Xeon X5650 2,67 GHz PODWÓJNY

◇ DRAM: 48 GB

◇ Sieć: 2-portowe łączenie sfp+ 10 Gb

◇Dysk: 1TB dla systemu

◇ System operacyjny: CentOS 7.6.1810

Host Hyper-V

◇   Procesor: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Sieć: 2-portowe łączenie sfp+ 10 Gb

◇   Dysk: 1TB dla systemu

◇   Windows Server 2019

Host VMWare

◇   Procesor: Intel Xeon E5-2630 2,3 GHz DUAL

◇   DRAM: 64 GB

◇   Sieć: 2-portowe łączenie sfp+ 10 Gb

◇   Dysk: 1TB dla systemu

◇   ESXi 6.5

Sieć: przełącznik 10GbE

Benchmark w różnych konfiguracjach

Aby przetestować wydajność tworzenia kopii zapasowych różnych repozytoriów kopii zapasowych, skonfigurowaliśmy testy z różnymi repozytoriami kopii zapasowych i trzema źródłami kopii zapasowych. 

Źródła kopii zapasowych, których używamy do testów, to wolumin oparty na dysku SATA SSD na serwerze, maszyna wirtualna Windows Hyper-V oraz maszyna wirtualna CentOS 7 i maszyna wirtualna Windows VMWare.

(1) Utwórz kopię zapasową woluminu na dysku SSD

Tabela 1. Utwórz kopię zapasową woluminu z serwera z dyskiem SSD SATA.

Rozmiar dysku (przetworzone dane)237,9 GB
Dane odczytane ze źródła200,1 GB
Dane przesłane do Ceph po deduplikacji i kompresji69,7 GB
Deduplikacja1,3X
Kompresja2,7X


Tabela 2.

Repozytorium kopii zapasowych
Czas trwania
(s)
Źródło
(%)
Prokurent
(%)
Sieć
(%)
Cel
(%)
Szybkość przetwarzania
(MB/s)
Średnia szybkość
zapisu danych
(MB/s)
Maszyna wirtualna Linux,
replika RBD 3
64683338421554110
Maszyna wirtualna Linux,
replika CephFS 3
5219725315564137
Maszyna wirtualna systemu Linux,
RBD, EC
64582348324554111
Maszyna wirtualna Linux,
CephFS, EC
5369726274564133
Serwer Linux,
RBD, EC
5269721163561136

Uwaga: Średnie szybkości zapisu danych są obliczane na podstawie przesłanych danych podzielonych przez czas trwania. Te stawki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.

(2) Utwórz kopię zapasową maszyny wirtualnej z systemem Windows 10 na Hyper-V na dysku twardym

W tym teście wykonujemy kopię zapasową instancji Hyper-V, która jest przechowywana na dysku twardym SATA. Szybkości przetwarzania tych zadań osiągają górną granicę przepustowości dysku twardego. Możemy również znaleźć wąskie gardło u źródła, ponieważ ich ładunki są zajęte przez 99% czasu trwania pracy. Klaster Ceph, docelowy, obciążenie z zadań kopii zapasowych Veeam jest lekki. Klaster Ceph jest zajęty tylko przez 6% do 1% czasu pracy.

W porównaniu z poprzednim testem szybkość przetwarzania kopii zapasowej maszyny wirtualnej jest znacznie niższa niż kopii zapasowej dysku SSD. Dzieje się tak głównie dlatego, że dane maszyny wirtualnej są przechowywane na dysku twardym. 

Tabela 3.

Rozmiar dysku (dysk twardy)127 GB
Dane odczytane ze źródła37,9 GB
Dane przesłane do Ceph po
deduplikacji i kompresji
21,4 GB
Deduplikacja3,3X
Kompresja1,8X


Tabela 4. Wykonaj kopię zapasową obrazu maszyny wirtualnej na dysku twardym SATA3

Repozytorium kopii zapasowych
Czas trwania
(s)
Źródło
(%)
Prokurent
(%)
Sieć
(%)
Cel
(%)
Szybkość przetwarzania
(MB/s)
Średnia szybkość
zapisu danych
(MB/s)
Linux VM,
wolumen RBD, EC
3639973614560
Maszyna wirtualna Linux,
wolumin CephFS,
EC
3779972114258,1
Serwer Linux,
wolumen RBD, EC
3759962214058,4

Uwaga: Średnie szybkości zapisu danych są obliczane na podstawie przesłanych danych podzielonych przez czas trwania. Te stawki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.

(3) Kopie zapasowe maszyn wirtualnych na ESXi na dysku twardym

Ten test tworzy kopię zapasową maszyn wirtualnych CentOS 7 i Windows 10 działających na dysku twardym hosta VMWare ESXi 6.5 w repozytorium wspieranym przez Ceph RBD z ochroną kodu wymazywania 4+2. 

Tabela 5.

ŹródłoMaszyna wirtualna CentOSMaszyna wirtualna z systemem Windows 10
Rozmiar dysku (dysk twardy)40 GB32 GB
Dane odczytane ze źródła1,8 GB12,9 GB
Dane przesłane do Ceph po
deduplikacji i kompresji
966 MB7,7 GB
Deduplikacja22,1X2,5X
Kompresja1,9X1,7X


Tabela 6.

Źródło kopii zapasowej
Czas trwania
(s)
Źródło
(%)
Prokurent
(%)
Sieć
(%)
Cel
(%)
Szybkość przetwarzania
(MB/s)
Średnia szybkość
zapisu danych
(MB/s)
CentOS 7122991050888
Okna 102449911519332

Uwaga: Średnie szybkości zapisu danych są obliczane na podstawie przesłanych danych podzielonych przez czas trwania. Te stawki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.

Wnioski

Zgodnie z wynikami testów Ceph RBD i CephFS mają podobną wydajność. Jest to zgodne z naszym doświadczeniem w zakresie benchmarku wydajności RBD i CephFS. Porównując cechy CephFS i RBD, mają one swoje zalety i wady. Jeśli potrzebujesz wdrożyć wiele serwerów repozytorium, musisz utworzyć obraz RBD dla każdego zapasowego serwera repozytorium, ponieważ Ceph RBD można zamontować tylko na jednym hoście. W porównaniu z CephFS korzystanie z RBD jest prostsze, ponieważ nie wymaga serwerów metadanych. Po utworzeniu musimy przypisać rozmiar pojemności RBD, więc musisz zmienić jej rozmiar, gdy potrzebujesz więcej miejsca.

Jeśli używasz CephFS jako repozytorium, musisz wdrożyć co najmniej jeden serwer metadanych (MDS) w klastrze Ceph. Aby zapewnić wysoką dostępność, potrzebujemy również rezerwowego serwera metadanych. W porównaniu z Ceph RBD nie musisz przydzielać systemowi plików limitu. Możesz więc traktować CephFS jako nieograniczoną pulę pamięci.

W tej demonstracji przypadku użycia nasze testy tworzą kopię zapasową tylko jednej maszyny wirtualnej w każdym zadaniu tworzenia kopii zapasowej. Zgodnie z powyższymi raportami z testów wiemy, że średnia szybkość zapisu danych jest powiązana z szybkością przetwarzania oraz wydajnością deduplikacji i kompresji danych. Szybszy dysk źródłowy skraca czas trwania zadania tworzenia kopii zapasowej i zapewnia większą szybkość przetwarzania. W zależności od infrastruktury użytkowników, użytkownicy mogą wdrażać kilka równoczesnych zadań, aby jednocześnie tworzyć kopie zapasowe różnych obiektów. Pamięć masowa Ceph bardzo dobrze radzi sobie z obsługą wielu współbieżnych zadań. 

Klaster Ceph OSD z 20-krotnym dyskiem HDD obsługiwany przez 3x Ambedded Mars 400 może zaoferować zagregowaną przepustowość zapisu do 700 MB/s w puli kodów kasowania 4+2. Wdrożenie wielu bieżących zadań tworzenia kopii zapasowych przynosi korzyść w postaci skrócenia całkowitego czasu tworzenia kopii zapasowej. Maksymalna wydajność klastra Ceph jest prawie liniowo proporcjonalna do całkowitej liczby dysków w klastrze.

W tym przypadku użycia nie testowaliśmy używania obiektowej pamięci masowej S3 jako repozytorium kopii zapasowych. Obiektowa pamięć masowa S3 może służyć jako warstwa pojemności w repozytorium kopii zapasowych Veeam Scale-Out i docelowym repozytorium archiwum na potrzeby kopii zapasowych NAS. Możesz łatwo skonfigurować bramę RADOS i łatwo tworzyć użytkowników obiektowej pamięci masowej za pomocą menedżera Ambedded UVS, interfejsu GUI do zarządzania ceph.

Ściągnij
Użyj Ceph jako repozytorium opracowania technicznego Veeam Backup & Replication
Użyj Ceph jako repozytorium opracowania technicznego Veeam Backup & Replication

Jak skonfigurować urządzenie blokowe Ceph RBD i system plików CephFS jako repozytorium kopii zapasowych Veeam do tworzenia kopii zapasowych maszyn wirtualnych...

Ściągnij
Produkty powiązane
Urządzenie do przechowywania Ceph - Urządzenie magazynujące Ceph Mars 400 z przodu.
Urządzenie do przechowywania Ceph
Mars 400PRO

UniVirStor to urządzenie pamięci masowej oparte na ceph. Urządzenie pamięci masowej Ambedded Ceph integruje dostrojone oprogramowanie Ceph, interfejs...

Detale
Mars 400SES SUSE Enterprise Storage Device - Mars 400SES Urządzenie SUSE Enterprise Storage 6 (Nautilus).
Mars 400SES SUSE Enterprise Storage Device
Mars 400SES

Mars400SES SUSE Enterprise Storage Appliance składa się ze sprzętu mikroserwera ARM, 3-letniej subskrypcji SUSE Enterprise Storage i SUSE Linux Enterprise...

Detale

Ambedded - Profesjonalne rozwiązanie do przechowywania Ceph na rynku.

Znajduje się na Tajwanie od 2013 roku,Ambedded Technology Co., LTD.jest dostawcą rozwiązań pamięci masowej Ceph, który oferuje urządzenia pamięci masowej oparte na oprogramowaniu ARM z 60% oszczędnością CapEX, 70% mniejszym zużyciem energii i 100% korzyściami skalowania.

Jeśli chodzi o projektowanie i produkcję pamięci masowych definiowanych programowo, zespół Ambedded ma szerokie doświadczenie, aby pomóc klientom w adaptacji rozwiązania ceph we wszechstronnych branżach, takich jak telekomunikacja, medycyna, wojsko, centra danych brzegowych i pamięć masowa przedsiębiorstwa wymagana przez HA.

Ambedded oferuje klientom rozwiązania pamięci masowej Ceph od 2013 roku, zarówno zaawansowaną technologię, jak i 20-letnie doświadczenie, Ambedded zapewnia spełnienie wymagań każdego klienta.