
Kopia zapasowa i archiwizacja Veeam do pracy z Ceph
To studium przypadku wyjaśnia, jak używać urządzenia pamięci masowej Mars 400 ceph jako repozytoriów kopii zapasowych kopii zapasowych i replikacji Veeam.
Ceph obsługuje pamięć obiektową, pamięć blokową i system plików POSIX w jednym klastrze. Zgodnie z wymaganiami dotyczącymi tworzenia kopii zapasowych klienci mogą wybrać różne protokoły pamięci masowej, aby zaspokoić potrzeby różnych strategii tworzenia kopii zapasowych pamięci masowej.
W tym artykule używamy pamięci blokowej Ceph (Ceph RBD) i systemu plików Ceph (Cephfs) jako repozytoriów kopii zapasowych i porównujemy czasy trwania ich zadań tworzenia kopii zapasowych maszyn wirtualnych z Hyper-V i VMWare.
Architektura rozwiązania do tworzenia kopii zapasowych z wykorzystaniem rozwiązań Veeam i Ceph
Architektura tworzenia kopii zapasowych maszyn wirtualnych na VMWare i Hyper-V jest podobna. Veeam wykorzystuje narzędzia do przenoszenia danych do przesyłania danych z hostów źródłowych do repozytoriów kopii zapasowych. Przenoszące dane działają na serwerze proxy i serwerze repozytorium. Aby użyć Ceph jako zaplecza pamięci masowej repozytorium kopii zapasowych, możesz zamontować RBD lub CephFS na serwerze fizycznym z systemem Linux lub maszynie wirtualnej jako serwer repozytorium.
Jeśli serwery proxy i repozytoriów są maszynami wirtualnymi w klastrze hipernadzorcy, można skorzystać z szybkiego przesyłania danych bez użycia sieci między dyskiem maszyny wirtualnej, serwerem proxy i serwerem repozytorium. Najlepszą konfiguracją dużego klastra hypervisora jest wdrożenie jednej maszyny wirtualnej serwera proxy i jednej maszyny wirtualnej serwera repozytorium na każdym hoście VMWare. W przeciwnym razie można wdrożyć jedną kopię zapasową maszyny wirtualnej proxy na każdym hoście VMWare i jeden host repozytorium poza hostem, aby usunąć obciążenie z produkcyjnego VMWare.
Istnieją trzy sposoby wykorzystania urządzenia Ambedded Ceph jako repozytoriów rozwiązania Veeam Backup and Replication. Urządzenia blokowe CephFS i RBD mogą być używane jako lokalne repozytorium kopii zapasowych. Obiektowa pamięć masowa S3 może służyć jako warstwa pojemności dla lokalizacji zdalnej.
Informacje na temat konfigurowania urządzenia blokowego Ceph RBD i systemu plików CephFS jako repozytorium kopii zapasowych Veeam do tworzenia kopii zapasowych maszyn wirtualnych i plików można znaleźć w białej księdze na końcu tej strony.
Środowisko testowe
- Trzy Mars 400 z 3x monitorami, 20 OSD i 1x MDS (serwer metadanych)
- Każdy demon Ceph działa na jednym dwurdzeniowym mikroserwerze Arm A72
- System operacyjny: CentOS 7
- Oprogramowanie Ceph: Nautilus 14.2.9 Arm64
- Sieć: 4x sieć 10Gb na Mars 400
Veeam Backup & Replication 10, wersja: 10.0.1.4854
Serwer kopii zapasowych Veeam
- Procesor: Intel Xeon E5-2630 2,3 GHz PODWÓJNY
- DRAM: 64 GB
- Sieć: połączenie 2x 10 Gb sfp+
- Dysk: 1 TB dla systemu, 256 GB SATA3 SSD dla woluminu
- Windows Server 2019
Serwer proxy Veeam
- kolokacja z serwerem Veeam Backup Server
Serwer repozytorium
- Maszyna wirtualna
◇Procesor: 4 rdzenie 2,3 GHz
◇ DRAM: 8 GB
◇Sieć: most
◇Dysk: dysk wirtualny 50 GB
◇ System operacyjny: CentOS 7.8.2003
- Serwer Baremetal
◇Procesor: Intel Xeon X5650 2,67 GHz PODWÓJNY
◇ DRAM: 48 GB
◇ Sieć: 2-portowe łączenie sfp+ 10 Gb
◇Dysk: 1TB dla systemu
◇ System operacyjny: CentOS 7.6.1810
Host Hyper-V
◇ Procesor: Intel Xeon E5-2630 2,3 GHz DUAL
◇ DRAM: 64 GB
◇ Sieć: 2-portowe łączenie sfp+ 10 Gb
◇ Dysk: 1TB dla systemu
◇ Windows Server 2019
Host VMWare
◇ Procesor: Intel Xeon E5-2630 2,3 GHz DUAL
◇ DRAM: 64 GB
◇ Sieć: 2-portowe łączenie sfp+ 10 Gb
◇ Dysk: 1TB dla systemu
ESXi 6.5
Sieć: przełącznik 10GbE
Benchmark w różnych konfiguracjach
Aby przetestować wydajność kopii zapasowych różnych repozytoriów kopii zapasowych, skonfigurowaliśmy testy z różnymi repozytoriami kopii zapasowych i trzema źródłami kopii zapasowych.
Źródła kopii zapasowych, których używamy do testów, to wolumin oparty na dysku SATA SSD na serwerze, maszyna wirtualna Windows Hyper-V oraz maszyna wirtualna CentOS 7 i maszyna wirtualna Windows VMWare.
(1) Utwórz kopię zapasową woluminu na dysku SSD
Tabela 1. Utwórz kopię zapasową woluminu z serwera z dyskiem SSD SATA.
Rozmiar dysku (przetworzone dane) | 237,9 GB |
Dane odczytane ze źródła | 200,1 GB |
Dane przesłane do Ceph po deduplikacji i kompresji | 69,7 GB |
Deduplikacja | 1,3X |
Kompresja | 2,7X |
Tabela 2.
Repozytorium kopii zapasowych |
Czas trwania (s) |
Źródło (%) |
Prokurent (%) |
Sieć (%) |
Cel (%) |
Szybkość przetwarzania (MB/s) |
Średnia szybkość zapisu danych (MB/s) |
Maszyna wirtualna Linux, replika RBD 3 |
646 | 83 | 33 | 84 | 21 | 554 | 110 |
Maszyna wirtualna Linux, replika CephFS 3 |
521 | 97 | 25 | 31 | 5 | 564 | 137 |
Maszyna wirtualna Linux, RBD, EC |
645 | 82 | 34 | 83 | 24 | 554 | 111 |
Maszyna wirtualna Linux, CephFS, EC |
536 | 97 | 26 | 27 | 4 | 564 | 133 |
Serwer Linux, RBD, EC |
526 | 97 | 21 | 16 | 3 | 561 | 136 |
Uwaga: średnie szybkości zapisu danych są obliczane na podstawie przesłanych danych podzielonych przez czas trwania. Te stawki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.
(2) Utwórz kopię zapasową maszyny wirtualnej z systemem Windows 10 na Hyper-V na dysku twardym
W tym teście wykonujemy kopię zapasową instancji Hyper-V, która jest przechowywana na dysku twardym SATA. Szybkości przetwarzania tych zadań osiągają górną granicę przepustowości dysku twardego. Możemy również znaleźć wąskie gardło u źródła, ponieważ ich ładunki są zajęte przez 99% czasu trwania pracy. Klaster Ceph, docelowy, obciążenie z zadań kopii zapasowych Veeam jest lekki. Klaster Ceph jest zajęty tylko przez 6% do 1% czasu pracy.
W porównaniu z poprzednim testem szybkość przetwarzania kopii zapasowej maszyny wirtualnej jest znacznie niższa niż kopii zapasowej dysku SSD. Dzieje się tak głównie dlatego, że dane maszyny wirtualnej są przechowywane na dysku twardym.
Tabela 3.
Rozmiar dysku (dysk twardy) | 127 GB |
Dane odczytane ze źródła | 37,9 GB |
Dane przesłane do Ceph po deduplikacji i kompresji |
21,4 GB |
Deduplikacja | 3,3X |
Kompresja | 1,8X |
Tabela 4. Wykonaj kopię zapasową obrazu maszyny wirtualnej na dysku twardym SATA3
Repozytorium kopii zapasowych |
Czas trwania (s) |
Źródło (%) |
Prokurent (%) |
Sieć (%) |
Cel (%) |
Szybkość przetwarzania (MB/s) |
Średnia szybkość zapisu danych (MB/s) |
Linux VM, wolumen RBD, EC |
363 | 99 | 7 | 3 | 6 | 145 | 60 |
Maszyna wirtualna Linux, wolumin CephFS, EC |
377 | 99 | 7 | 2 | 1 | 142 | 58,1 |
Serwer Linux, wolumen RBD, EC |
375 | 99 | 6 | 2 | 2 | 140 | 58,4 |
Uwaga: średnie szybkości zapisu danych są obliczane na podstawie przesłanych danych podzielonych przez czas trwania. Te stawki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.
(3) Kopie zapasowe maszyn wirtualnych na ESXi na dysku twardym
Ten test tworzy kopię zapasową maszyn wirtualnych CentOS 7 i Windows 10 działających na dysku twardym hosta VMWare ESXi 6.5 w repozytorium wspieranym przez Ceph RBD z ochroną kodu wymazywania 4+2.
Tabela 5.
Źródło | Maszyna wirtualna CentOS | Maszyna wirtualna z systemem Windows 10 |
Rozmiar dysku (dysk twardy) | 40 GB | 32 GB |
Dane odczytane ze źródła | 1,8 GB | 12,9 GB |
Dane przesłane do Ceph po deduplikacji i kompresji |
966 MB | 7,7 GB |
Deduplikacja | 22,1X | 2,5X |
Kompresja | 1,9X | 1,7X |
Tabela 6.
Źródło kopii zapasowej |
Czas trwania (s) |
Źródło (%) |
Prokurent (%) |
Sieć (%) |
Cel (%) |
Szybkość przetwarzania (MB/s) |
Średnia szybkość zapisu danych (MB/s) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Uwaga: średnie szybkości zapisu danych są obliczane na podstawie przesłanych danych podzielonych przez czas trwania. Te stawki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.
Wnioski
Zgodnie z wynikami testów Ceph RBD i CephFS mają podobną wydajność. Jest to zgodne z naszym doświadczeniem w zakresie benchmarku wydajności RBD i CephFS. Porównując cechy CephFS i RBD, mają one swoje zalety i wady. Jeśli potrzebujesz wdrożyć wiele serwerów repozytorium, musisz utworzyć obraz RBD dla każdego zapasowego serwera repozytorium, ponieważ Ceph RBD można zamontować tylko na jednym hoście. W porównaniu z CephFS korzystanie z RBD jest prostsze, ponieważ nie wymaga serwerów metadanych. Po utworzeniu musimy przypisać rozmiar pojemności RBD, więc musisz zmienić jej rozmiar, gdy potrzebujesz więcej miejsca.
Jeśli używasz CephFS jako repozytorium, musisz wdrożyć co najmniej jeden serwer metadanych (MDS) w klastrze Ceph. Aby zapewnić wysoką dostępność, potrzebujemy również rezerwowego serwera metadanych. W porównaniu z Ceph RBD nie musisz przydzielać systemowi plików limitu. Możesz więc traktować CephFS jako nieograniczoną pulę pamięci.
W tej demonstracji przypadku użycia nasze testy tworzą kopię zapasową tylko jednej maszyny wirtualnej w każdym zadaniu tworzenia kopii zapasowej. Zgodnie z powyższymi raportami z testów wiemy, że średnia szybkość zapisu danych jest powiązana z szybkością przetwarzania oraz wydajnością deduplikacji i kompresji danych. Szybszy dysk źródłowy skraca czas tworzenia kopii zapasowej i zapewnia większą szybkość przetwarzania. W zależności od infrastruktury użytkowników, użytkownicy mogą wdrażać kilka współbieżnych zadań, aby jednocześnie tworzyć kopie zapasowe różnych obiektów. Pamięć masowa Ceph bardzo dobrze radzi sobie z obsługą wielu współbieżnych zadań.
Klaster Ceph OSD z 20-krotnym dyskiem HDD obsługiwany przez 3x Ambedded Mars 400 może zaoferować zagregowaną przepustowość zapisu do 700 MB/s w puli kodów kasowania 4+2. Wdrożenie wielu bieżących zadań tworzenia kopii zapasowych przynosi korzyść w postaci skrócenia całkowitego czasu tworzenia kopii zapasowej. Maksymalna wydajność klastra Ceph jest prawie liniowo proporcjonalna do całkowitej liczby dysków w klastrze.
W tym przypadku nie testowaliśmy używania obiektowej pamięci masowej S3 jako repozytorium kopii zapasowych. Obiektowa pamięć masowa S3 może być używana jako warstwa pojemności w repozytorium kopii zapasowych Veeam Scale-Out i docelowym repozytorium archiwum na potrzeby kopii zapasowych NAS. Możesz łatwo skonfigurować bramę RADOS i łatwo tworzyć użytkowników obiektowej pamięci masowej za pomocą menedżera Ambedded UVS, interfejsu GUI zarządzania ceph.
- Ściągnij
-
Użyj Ceph jako repozytorium opracowania technicznego Veeam Backup & Replication
Jak skonfigurować urządzenie blokowe Ceph RBD i system plików CephFS jako repozytorium kopii zapasowych Veeam do tworzenia kopii zapasowych maszyn wirtualnych...
Ściągnij - Produkty powiązane
-
Urządzenie do przechowywania Ceph
Mars 400PRO
UniVirStor to urządzenie pamięci masowej oparte na ceph. Urządzenie pamięci masowej Ambedded Ceph integruje dostrojone oprogramowanie Ceph, interfejs...
DetaleMars 400SES SUSE Enterprise Storage Device
Mars 400SES
Mars400SES SUSE Enterprise Storage Appliance składa się ze sprzętu mikroserwera ARM, 3-letniej subskrypcji SUSE Enterprise Storage i SUSE Linux Enterprise...
Detale