
Zálohování a archivace Veeam pro práci s Ceph
Tato případová studie vysvětluje, jak používat úložné zařízení Mars 400 ceph jako zálohovací úložiště zálohování a replikace Veeam.
Ceph podporuje ukládání objektů, blokové úložiště a souborový systém POSIX, vše v jednom clusteru. Podle požadavků na zálohování si zákazníci mohou vybrat různé protokoly úložiště pro podporu potřeb různých strategií zálohování úložiště.
V tomto článku používáme úložiště bloků Ceph (Ceph RBD) a souborový systém Ceph (Cephfs) jako úložiště záloh a porovnáváme trvání jejich úlohy zálohování virtuálních počítačů z Hyper-V a VMWare.
Architektura řešení zálohování pomocí Veeam a Ceph
Architektura zálohování virtuálních strojů na VMWare a Hyper-V je podobná. Veeam používá data movers k přenosu dat ze zdrojových hostitelů do úložišť záloh. Přesuny dat běží na serveru proxy a serveru úložiště. Chcete-li použít Ceph jako backendové úložiště úložiště záloh, můžete připojit RBD nebo CephFS na fyzický server Linux nebo virtuální počítač jako server úložiště.
Pokud jsou servery proxy a úložiště virtuálními počítači uvnitř clusteru hypervizorů, můžete získat výhodu vysokorychlostního přenosu dat bez sítě mezi diskem virtuálního počítače, serverem proxy a serverem úložiště. Nejlepší konfigurací velkého klastru hypervizorů je nasazení jednoho virtuálního počítače proxy serveru a jednoho virtuálního počítače serveru úložiště na každém hostiteli VMWare. Jinak můžete nasadit jeden záložní proxy virtuální počítač na každého hostitele VMWare a jednoho hostitele úložiště mimo hostitele, abyste odstranili zátěž z vašeho produkčního VMWare.
Zařízení Ambbedded Ceph lze použít jako úložiště pro Veeam Backup and Replication třemi způsoby. Bloková zařízení CephFS a RBD lze použít jako místní úložiště záloh. Úložiště objektů S3 lze použít jako kapacitní vrstvu pro vzdálené umístění.
Podrobnosti o tom, jak nastavit blokové zařízení Ceph RBD a souborový systém CephFS jako zálohovací úložiště společnosti Veeam pro zálohování virtuálních počítačů a souborů, naleznete v dokumentu white paper na konci této stránky.
Testovací prostředí
- Tři Mars 400 s 3x monitory, 20 OSD a 1x MDS (metadatový server)
- Každý démon Ceph běží na jednom dvoujádrovém mikroserveru Arm A72
- Operační systém: CentOS 7
- Ceph software: Nautilus 14.2.9 Arm64
- Síť: 4x 10Gb síť na Mars 400
Veeam Backup & Replication 10, verze: 10.0.1.4854
Zálohovací server Veeam
- CPU: Intel Xeon E5-2630 2,3 GHz DUAL
- DRAM: 64 GB
- Síť: 2x 10Gb sfp+ propojení
- Disk: 1TB pro systém, 256GB SATA3 SSD pro svazek
- Windows Server 2019
Proxy server Veeam
- propojit se serverem Veeam Backup Server
Server úložiště
- Virtuální stroj
◇ CPU: 4 jádra 2,3 GHz
◇ DRAM: 8 GB
◇ Síť: most
◇ Disk: 50GB virtuální disk
◇ OS: CentOS 7.8.2003
- Baremetal Server
◇ CPU: Intel Xeon X5650 2,67 GHz DUAL
◇ DRAM: 48 GB
◇ Síť: 2portové 10Gb sfp+ propojení
◇ Disk: 1 TB pro systém
◇ OS: CentOS 7.6.1810
Hostitel Hyper-V
◇ CPU: Intel Xeon E5-2630 2,3 GHz DUAL
◇ DRAM: 64 GB
◇ Síť: 2portové 10Gb sfp+ propojení
◇ Disk: 1 TB pro systém
◇ Windows Server 2019
Hostitel VMWare
◇ CPU: Intel Xeon E5-2630 2,3 GHz DUAL
◇ DRAM: 64 GB
◇ Síť: 2portové 10Gb sfp+ propojení
◇ Disk: 1 TB pro systém
◇ ESXi 6.5
Síť: 10GbE přepínač
Srovnání různých nastavení
Abychom porovnali výkon zálohování různých úložišť záloh, nastavili jsme testy s různými úložišti záloh a třemi zdroji záloh.
Záložní zdroje, které používáme pro testy, jsou svazek založený na SATA SSD na serveru, Windows VM Hyper-V a CentOS 7 VM a Windows VM VMWare.
(1)Zálohujte svazek na jednotku SSD
Tabulka 1. Zálohujte svazek ze serveru se SATA SSD.
Velikost disku (zpracovaná data) | 237,9 GB |
Data Čtená ze zdroje | 200,1 GB |
Data přenesená do Ceph po deduplikaci a kompresi | 69,7 GB |
Deduplikace | 1,3X |
Komprese | 2,7X |
Tabulka 2
Záložní úložiště |
Doba trvání (s) |
Zdroj (%) |
Proxy (%) |
Síť (%) |
Cíl (%) |
Rychlost zpracování (MB/s) |
Průměrná rychlost zápisu dat (MB/s) |
Linux VM, RBD-replika 3 |
646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM, replika CephFS 3 |
521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM, RBD, EC |
645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM, CephFS, EC |
536 | 97 | 26 | 27 | 4 | 564 | 133 |
Linuxový server, RBD, EC |
526 | 97 | 21 | 16 | 3 | 561 | 136 |
Poznámka: Průměrné rychlosti zápisu dat se vypočítávají jako podíl přenesených dat vydělený dobou trvání. Tyto rychlosti představují zátěž clusteru Ceph v těchto úlohách zálohování.
(2)Zálohujte virtuální počítač Windows 10 na Hyper-V na HDD
V tomto benchmarku zálohujeme instanci Hyper-V, která je uložena na pevném disku SATA. Rychlosti zpracování těchto úloh dosahují horní hranice šířky pásma HDD. Můžeme také zjistit, že úzké místo je na zdroji, protože jejich zátěže jsou zaneprázdněny během 99 % trvání úlohy. Cluster Ceph, cíl, pracovní zátěž zálohovacích úloh Veeam je nízká. Ceph cluster je zaneprázdněn pouze na 6 % až 1 % pracovní doby.
Ve srovnání s předchozím benchmarkem je rychlost zpracování zálohy VM mnohem nižší než zálohy SSD. Je to hlavně proto, že data VM jsou uložena na pevném disku.
Tabulka 3.
Velikost disku (HDD) | 127 GB |
Data čtená ze zdroje | 37,9 GB |
Data přenesená do Ceph po deduplikaci a kompresi |
21,4 GB |
Deduplikace | 3,3X |
Komprese | 1,8X |
Tabulka 4. Zálohování obrazu virtuálního stroje na pevný disk SATA3
Záložní úložiště |
Doba trvání (s) |
Zdroj (%) |
Proxy (%) |
Síť (%) |
Cíl (%) |
Rychlost zpracování (MB/s) |
Průměrná rychlost zápisu dat (MB/s) |
Linux VM, svazek RBD, EC |
363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM, svazek CephFS, EC |
377 | 99 | 7 | 2 | 1 | 142 | 58,1 |
Linux Server, svazek RBD, EC |
375 | 99 | 6 | 2 | 2 | 140 | 58,4 |
Poznámka: Průměrné rychlosti zápisu dat se vypočítávají jako podíl přenesených dat vydělený dobou trvání. Tyto rychlosti představují zátěž clusteru Ceph v těchto úlohách zálohování.
(3)Zálohujte virtuální stroje na ESXi na HDD
Tento test zálohuje virtuální počítače CentOS 7 a Windows 10 běžící na HDD hostitele VMWare ESXi 6.5 do úložiště podporovaného Ceph RBD s ochranou 4+2 kódem pro vymazání.
Tabulka 5.
Zdroj | CentOS VM | Windows 10 VM |
Velikost disku (HDD) | 40 GB | 32 GB |
Data čtená ze zdroje | 1,8 GB | 12,9 GB |
Data přenesená do Ceph po deduplikaci a kompresi |
966 MB | 7,7 GB |
Deduplikace | 22,1X | 2,5X |
Komprese | 1,9X | 1,7X |
Tabulka 6.
Záložní zdroj |
Doba trvání (s) |
Zdroj (%) |
Proxy (%) |
Síť (%) |
Cíl (%) |
Rychlost zpracování (MB/s) |
Průměrná rychlost zápisu dat (MB/s) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Poznámka: Průměrné rychlosti zápisu dat se vypočítávají jako podíl přenesených dat vydělený dobou trvání. Tyto rychlosti představují zátěž clusteru Ceph v těchto úlohách zálohování.
Závěry
Podle výsledků testu mají Ceph RBD a CephFS podobný výkon. To odpovídá našim zkušenostem ohledně benchmarku výkonnosti RBD a CephFS. Při porovnání charakteristik CephFS a RBD mají své výhody a nevýhody. Pokud potřebujete nasadit více serverů úložiště, musíte vytvořit obraz RBD pro každý server úložiště záloh, protože Ceph RBD můžete připojit pouze k jednomu hostiteli. Ve srovnání s CephFS je používání RBD jednodušší, protože nepotřebuje servery metadat. Při vytváření musíme přiřadit velikost kapacity RBD, takže když potřebujete více místa, musíte její kapacitu změnit.
Pokud používáte CephFS jako úložiště, musíte nasadit alespoň jeden metadatový server (MDS) v clusteru Ceph. Pro vysokou dostupnost potřebujeme také záložní metadatový server. Ve srovnání s Ceph RBD nemusíte souborovému systému přidělovat kvótu. S CephFS tedy můžete zacházet jako s neomezeným úložištěm.
V této ukázce případu použití naše testuje zálohování pouze jednoho virtuálního počítače v každé úloze zálohování. Podle výše uvedených testovacích zpráv víme, že průměrná rychlost zápisu dat souvisí s rychlostí zpracování a deduplikací dat a účinností komprese. Rychlejší zdrojový disk zkracuje dobu zálohování a vede k rychlejšímu zpracování. V závislosti na infrastruktuře uživatelů mohou uživatelé nasadit několik souběžných úloh pro současné zálohování různých objektů. Úložiště Ceph funguje velmi dobře při podpoře více souběžných úloh.
Cluster 20x HDD OSD Ceph poháněný 3x Ambedded Mars 400 může nabídnout až 700 MB/s agregovanou propustnost zápisu do fondu 4+2 vymazávacích kódů. Nasazení více aktuálních úloh zálohování přináší výhodu snížení celkové doby zálohování. Maximální výkon clusteru Ceph je téměř lineárně úměrný celkovému počtu diskových jednotek v clusteru.
V tomto případě použití jsme netestovali použití objektového úložiště S3 jako úložiště záloh. Objektové úložiště S3 lze použít jako kapacitní vrstvu v úložišti záloh Veeam Scale-Out a cílovém archivním úložišti pro zálohování NAS. Můžete snadno nastavit bránu RADOS a snadno vytvořit uživatele úložiště objektů pomocí správce Ambedded UVS, webového GUI pro správu ceph.
- Stažení
-
Použijte Ceph jako úložiště pro bílou knihu Veeam Backup & Replication
Jak nastavit blokové zařízení Ceph RBD a souborový systém CephFS jako úložiště záloh společnosti Veeam pro zálohování virtuálních počítačů...
Stažení - Související produkty
-
Úložné zařízení Ceph
Mars 400PRO
UniVirStor je softwarově definované úložné zařízení založené na ceph. Vestavěné úložné zařízení Ceph integruje vyladěný software Ceph,...
PodrobnostiEnterprise Storage Appliance Mars 400SES SUSE
Mars 400SES
Mars400SES SUSE Enterprise Storage Appliance se skládá z hardwaru mikroserveru ARM, 3letého předplatného SUSE Enterprise Storage a SUSE Linux Enterprise...
Podrobnosti