Veeam backup i archiwizacja do pracy z Ceph | Kosztowo efektywne zarządzanie przechowywaniem Ceph | Ambedded

Dlaczego i jak używać urządzenia pamięci masowej Ceph jako repozytoriów kopii zapasowych Veeam Backup & Replication | Mars 400 - Przechowywanie Ceph o wysokiej gęstości

Dlaczego i jak używać urządzenia pamięci masowej Ceph jako repozytoriów kopii zapasowych Veeam Backup & Replication

Veeam backup i archiwizacja do pracy z Ceph

Niniejsze studium przypadku wyjaśnia, jak używać urządzenia pamięci masowej Ceph Mars 400 jako repozytoriów kopii zapasowych dla Veeam backup and replication.
Ceph obsługuje przechowywanie obiektów, bloków oraz system plików POSIX, wszystko w jednym klastrze. Zgodnie z wymaganiami dotyczącymi kopii zapasowych, klienci mogą wybrać różne protokoły przechowywania, aby sprostać potrzebom różnych strategii tworzenia kopii zapasowych.
 
W tym artykule wykorzystujemy blokowe przechowywanie danych Ceph (Ceph RBD) oraz system plików Ceph (Cephfs) jako repozytoriów kopii zapasowych i porównujemy czas trwania zadań tworzenia kopii zapasowych maszyn wirtualnych z Hyper-V i VMWare.


Architektura rozwiązania kopii zapasowych przy użyciu Veeam i Ceph

Architektura tworzenia kopii zapasowych maszyn wirtualnych na VMWare i Hyper-V jest podobna. Veeam używa przesyłaczy danych do transferu danych z hostów źródłowych do repozytoriów kopii zapasowych. Przesyłacze danych działają na serwerze proxy i serwerze repozytorium. Aby użyć Ceph jako magazynu danych dla repozytorium kopii zapasowych, można zamontować RBD lub CephFS na fizycznym serwerze Linux lub maszynie wirtualnej jako serwer repozytorium.

Jeśli serwery proxy i repozytorium są wirtualnymi maszynami w klastrze hipernadzorcy, możesz skorzystać z bezprzewodowego transportu danych o wysokiej prędkości między dyskiem maszyny wirtualnej, serwerem proxy i serwerem repozytorium. Najlepsza konfiguracja dużego klastra hypervisora polega na wdrożeniu jednego serwera proxy VM i jednego serwera repozytorium VM na każdym hoście VMWare. W przeciwnym razie możesz wdrożyć jedną kopię zapasową maszyny wirtualnej proxy na każdym hoście VMWare oraz jednego hosta repozytorium poza hostem, aby usunąć obciążenie z twojego środowiska produkcyjnego VMWare.

Istnieją trzy sposoby na wykorzystanie Ambedded urządzenia Ceph jako repozytorium dla Veeam Backup and Replication.CephFS oraz urządzenia blokowe RBD mogą być używane jako lokalne repozytorium kopii zapasowych.Magazyn obiektów S3 może być używany jako warstwa pojemności dla zdalnej lokalizacji.

Aby skonfigurować urządzenie blokowe Ceph RBD oraz system plików CephFS jako repozytorium kopii zapasowych Veeam do tworzenia kopii zapasowych maszyn wirtualnych i plików, szczegóły można znaleźć w dokumencie technicznym na końcu tej strony.


Serwery proxy i repozytorium Veeam są maszynami wirtualnymi w klastrze hipernadzorcy, z magazynem Mars 400 ceph, aby zapewnić RBD i cephfs
Wielki klaster hipernadzorcy ma na celu wdrożenie jednej maszyny wirtualnej serwera proxy i jednej maszyny wirtualnej serwera repozytorium na każdym hoście VMWare, aby mieć dane kopii zapasowych do zapisania w ceph RBD lub cephfs

Środowisko testowe

klaster ceph

  • Trzy Mars 400 z 3x monitorami, 20 OSD i 1x MDS (serwer metadanych)
  • Każdy demon Ceph działa na jednym dwurdzeniowym mikroserwerze Arm A72
  • System operacyjny: CentOS 7
  • Oprogramowanie Ceph: Nautilus 14.2.9 Arm64
  • Sieć: 4x 10Gb sieć na Mars 400 

Veeam Backup & Replication 10, Wersja: 10.0.1.4854

Serwer kopii zapasowych Veeam

  • CPU: Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM: 64GB
  • Sieć: 2x 10Gb sfp+ bonding
  • Dysk: 1TB dla systemu, 256GB SATA3 SSD na wolumin
  • Windows Serwer 2019

 Serwer Proxy Veeam

  • Kolokacja z Serwerem Backupu Veeam

 Serwer Repozytorium

  • Wirtualna Maszyna

◇  CPU: 4 rdzenie 2.3GHz

◇  DRAM: 8GB

◇  Sieć: most

◇  Dysk: 50GB wirtualny dysk

◇  System operacyjny: CentOS 7.8.2003

  • Serwer baremetalowy

◇  Procesor: Intel Xeon X5650 2.67GHz DUAL

◇  DRAM: 48GB

◇  Sieć: 2-portowy 10Gb sfp+ bonding

◇  Dysk: 1TB na system

◇  System operacyjny: CentOS 7.6.1810

Gospodarz Hyper-V

◇  CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM: 64GB

Sieć: Bonding 2-portowy 10Gb sfp+

Dysk: 1TB dla systemu

◇  Serwer Windows 2019

Gospodarz VMWare

◇  CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM: 64GB

Sieć: Bonding 2-portowy 10Gb sfp+

Dysk: 1TB dla systemu

◇  ESXi 6.5

Sieć: przełącznik 10GbE

Testy wydajności na różnych konfiguracjach

Aby zbadać wydajność kopii zapasowych różnych repozytoriów, przeprowadziliśmy testy z różnymi repozytoriami kopii zapasowych i trzema źródłami kopii zapasowych.

Źródłami kopii zapasowych, które używamy do testów, są wolumin oparty na dysku SSD SATA na serwerze, maszyna wirtualna Hyper-V z systemem Windows oraz maszyna wirtualna CentOS 7 i maszyna wirtualna VMWare z systemem Windows.

(1)Kopia zapasowa woluminu na dysku SSD

Tabela 1. Kopia zapasowa woluminu z serwera z dyskiem SATA SSD.

Rozmiar dysku (przetworzone dane)237,9GB
Dane odczytane ze źródła200,1GB
Przesył danych do Ceph po deduplikacji i kompresji69,7GB
Deduplikacja1,3X
Kompresja2,7X


Tabela 2.

Kopia zapasowa
Repozytorium
Czas trwania
(sek)
Źródło
(%)
Serwer pośredniczący
(%)
Sieć
(%)
Docelowy
(%)
Przetwarzanie
Szybkość (MB/s)
Średnia
Zapis danych
Szybkość (MB/s)
Linux VM,
RBD-replika 3
64683338421554110
Linux VM,
CephFS-replika 3
5219725315564137
Linux VM,
RBD, EC
64582348324554111
Linux VM,
CephFS, EC
5369726274564133
Serwer Linux,
RBD, EC
5269721163561136

Uwaga: Średnie wskaźniki zapisu danych są obliczane jako iloraz Przesłanych danych przez Czas trwania. Te wskaźniki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.

(2)Tworzenie kopii zapasowej maszyny wirtualnej Windows 10 na Hyper-V na dysku HDD

W tym teście porównawczym tworzymy kopię zapasową instancji Hyper-V przechowywanej na dysku SATA. Prędkości przetwarzania tych zadań osiągają górny limit przepustowości dysku HDD. Możemy również stwierdzić, że wąskim gardłem jest źródło, ponieważ ich obciążenie jest zajęte w 99% czasu trwania zadania. Klastr Ceph, cel, obciążenie z zadań kopii zapasowych Veeam jest lekkie. Klastry Ceph są zajęte tylko w 6% do 1% czasu pracy.

W porównaniu do poprzedniego testu, wydajność procesowania kopii zapasowej maszyny wirtualnej jest znacznie niższa niż kopii zapasowej na dysku SSD.To głównie dlatego, że dane maszyny wirtualnej są przechowywane na dysku twardym.

Tabela 3.

Rozmiar dysku (HDD)127GB
Odczyt danych ze źródła37.9GB
Dane przesłane do Ceph po
Deduplikacji i Kompresji
21,4GB
Deduplikacja3,3X
Kompresja1,8X


Tabela 4. Tworzenie kopii obrazu maszyny wirtualnej na dysku SATA3 HDD

Kopia zapasowa
Repozytorium
Czas trwania
(sek)
Źródło
(%)
Serwer pośredniczący
(%)
Sieć
(%)
Docelowy
(%)
Przetwarzanie
Szybkość (MB/s)
Średnia
Zapis danych
Szybkość (MB/s)
Linux VM,
Wolumin RBD, EC
3639973614560
Linux VM,
Wolumin CephFS,
EC
3779972114258.1
Serwer Linux,
Wolumin RBD, EC
3759962214058.4

Uwaga: Średnie wskaźniki zapisu danych są obliczane jako iloraz Przesłanych danych przez Czas trwania. Te wskaźniki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.

(3)Kopia zapasowa wirtualnych maszyn na ESXi na dysku HDD

Ten test tworzy kopię zapasową maszyn wirtualnych CentOS 7 i Windows 10 działających na dysku HDD hosta VMWare ESXi 6.5 do repozytorium wspieranego przez Ceph RBD z ochroną kodu zatracania 4+2.

Tabela 5.

ŹródłoCentOS VMWindows 10 VM
Rozmiar dysku (HDD)40GB32GB
Odczyt danych ze źródła1.8GB12.9GB
Dane przesłane do Ceph po
Deduplikacji i Kompresji
966MB7.7GB
Deduplikacja22.1X2.5X
Kompresja1.9X1.7X


Tabela 6.

Kopia zapasowa
Źródło
Czas trwania
(sek)
Źródło
(%)
Serwer pośredniczący
(%)
Sieć
(%)
Docelowy
(%)
Przetwarzanie
Szybkość (MB/s)
Średnia
Zapis danych
Szybkość (MB/s)
CentOS 7122991050888
Windows 102449911519332

Uwaga: Średnie wskaźniki zapisu danych są obliczane jako iloraz Przesłanych danych przez Czas trwania. Te wskaźniki reprezentują obciążenia klastra Ceph w tych zadaniach tworzenia kopii zapasowych.

Wnioski

Według wyników testów, Ceph RBD i CephFS mają podobną wydajność. To odpowiada naszemu doświadczeniu dotyczącemu wydajności RBD i CephFS. Porównując cechy CephFS i RBD, mają swoje zalety i wady. Jeśli potrzebujesz wdrożyć wiele serwerów repozytorium, musisz utworzyć obraz RBD dla każdego serwera repozytorium kopii zapasowej, ponieważ można zamontować tylko jedno RBD Ceph na jednym hoście. W porównaniu do CephFS, korzystanie z RBD jest prostsze, ponieważ nie wymaga serwerów metadanych. Musimy przypisać rozmiar pojemności RBD podczas tworzenia, więc musisz zmienić jej rozmiar, gdy potrzebujesz więcej miejsca.

Jeśli używasz CephFS jako repozytorium, musisz wdrożyć co najmniej jeden serwer metadanych (MDS) w klastrze Ceph. Potrzebujemy również zapasowego serwera metadanych dla wysokiej dostępności. W porównaniu do Ceph RBD, nie musisz przypisywać systemowi plików limitu. Możesz traktować CephFS jako nieograniczone źródło pamięci.

W tej demonstracji przypadku użycia, nasze testy tworzą kopię zapasową tylko jednej maszyny w każdym zadaniu tworzenia kopii zapasowej. Zgodnie z powyższymi raportami testowymi, wiemy, że średnia szybkość zapisu danych jest związana z szybkością przetwarzania oraz efektywnością deduplikacji i kompresji danych. Szybszy dysk źródłowy skraca czas trwania zadania tworzenia kopii zapasowej i prowadzi do szybszej szybkości przetwarzania. W zależności od infrastruktury użytkowników, użytkownicy mogą wdrożyć kilka równoczesnych zadań, aby tworzyć kopie zapasowe różnych obiektów jednocześnie. Magazyn Ceph bardzo dobrze radzi sobie z obsługą wielu równoczesnych zadań.

Klastr Ceph z 20x dyskami HDD OSD zasilany przez 3x Ambedded Mars 400 może oferować do 700MB/s agregowanej przepustowości zapisu do puli kodu zatraty 4+2. Wdrażanie wielu bieżących zadań kopii zapasowych przynosi korzyść w postaci skrócenia całkowitego czasu trwania kopii zapasowej. Maksymalna wydajność klastra Ceph jest prawie liniowo proporcjonalna do całkowitej liczby dysków w klastrze.

W tym przypadku nie testowaliśmy użycia magazynu obiektowego S3 jako repozytorium kopii zapasowej. Magazyn obiektowy S3 może być używany jako warstwa pojemności w repozytorium kopii zapasowej Veeam Scale-Out oraz jako repozytorium archiwum docelowego dla kopii zapasowej NAS. Można łatwo skonfigurować bramę RADOS i tworzyć użytkowników magazynu obiektowego za pomocą Ambedded UVS manager, interfejsu graficznego zarządzania Ceph.

Pobierz
Użyj Ceph jako repozytorium dla dokumentu technicznego Veeam Backup & Replication
Użyj Ceph jako repozytorium dla dokumentu technicznego Veeam Backup & Replication

Jak skonfigurować blok urządzenia Ceph RBD i system plików CephFS jako repozytorium kopii zapasowej Veeam do tworzenia kopii zapasowych maszyn wirtualnych...

Ściągnij
Powiązane produkty
Urządzenie pamięci masowej Ceph Mars 400PRO - Urządzenie pamięci masowej Ceph Mars 400 przód.
Urządzenie pamięci masowej Ceph Mars 400PRO
Mars 400PRO

Mars 400 Ceph Appliance został zaprojektowany, aby sprostać wysokim potrzebom przechowywania danych w chmurze o dużej pojemności. Wykorzystuje dysk...

Detale

Veeam backup i archiwizacja do pracy z Ceph | Rozwiązania przechowywania Ceph; Urządzenia i oprogramowanie Ceph|Ambedded

Założona na Tajwanie w 2013 roku, Ambedded Technology Co., LTD. jest wiodącym dostawcą rozwiązań do przechowywania bloków, plików i obiektów opartych na oprogramowaniu Ceph. Specjalizujemy się w dostarczaniu systemów przechowywania o wysokiej wydajności i skalowalności dla centrów danych, przedsiębiorstw i instytucji badawczych. Nasza oferta obejmuje urządzenia do przechowywania oparte na Ceph, integrację serwerów, optymalizację przechowywania oraz ekonomiczne wdrożenie Ceph z uproszczonym zarządzaniem.

Ambedded oferuje kompleksowe urządzenia do przechowywania Ceph oraz pełne rozwiązania oprogramowania Ceph dostosowane do organizacji B2B. Nasza platforma pamięci masowej Ceph obsługuje zjednoczone przechowywanie bloków, plików (NFS, SMB, CephFS) oraz zgodne z S3 przechowywanie obiektów, co obniża całkowity koszt posiadania (TCO) przy jednoczesnym zwiększeniu niezawodności i skalowalności. Dzięki zintegrowanemu dostrajaniu Ceph, intuicyjnemu interfejsowi webowemu i narzędziom automatyzacji, pomagamy klientom osiągnąć wysokowydajne przechowywanie dla obciążeń AI, HPC i chmury.

Z ponad 20-letnim doświadczeniem w IT dla przedsiębiorstw i ponad dekadą w wdrażaniu pamięci Ceph, Ambedded zrealizowało ponad 200 udanych projektów na całym świecie. Oferujemy fachowe doradztwo, projektowanie klastrów, wsparcie w wdrażaniu oraz bieżące utrzymanie. Nasze zaangażowanie w profesjonalne wsparcie Ceph i bezproblemową integrację zapewnia, że klienci maksymalnie wykorzystują swoją infrastrukturę pamięci opartą na Ceph — na dużą skalę, z szybkością i w ramach budżetu.