
Birlikte çalışmak için Veeam yedekleme ve arşivleme Ceph
Bu örnek olay incelemesi,
Mars 400
ceph storage appliance Veeam yedekleme ve replikasyonun yedekleme havuzları olarak.
Ceph destekler
object storage,
block storageve POSIX
file systemhepsi tek bir kümede. Yedekleme gereksinimlerine göre müşteriler, çeşitli depolama yedekleme stratejilerinin ihtiyaçlarını desteklemek için farklı depolama protokolleri seçebilir.
Bu yazıda kullanıyoruz
Ceph
block storage (
Ceph RBD) ve
Ceph
file system (
Cephfs) yedekleme havuzları olarak ve sanal makineleri yedeklemenin yedekleme işi sürelerini karşılaştırın.
Hyper-V ve VMWare.
Veeam kullanarak Yedekleme Çözümü Mimarisi ve Ceph
VMWare üzerinde sanal makineleri yedekleme mimarisi ve Hyper-Vbenzerdir. Veeam, verileri kaynak ana bilgisayarlardan yedekleme havuzlarına aktarmak için veri taşıyıcıları kullanır. Veri taşıyıcılar, proxy sunucuda ve havuz sunucusunda çalışır. KullanmakCeph bir yedekleme havuzunun arka uç depolaması olarak, RBD'yi veya CephFS havuz sunucusu olarak bir Linux fiziksel sunucusunda veya sanal makinede.
Proxy ve depo sunucuları hiper yönetici kümesinin içindeki sanal makineler ise, VM diski, proxy sunucusu ve depo sunucusu arasında ağsız yüksek hızlı veri aktarımından yararlanabilirsiniz. Büyük bir hiper yönetici kümesinin en iyi yapılandırması, her VMWare ana bilgisayarına bir proxy sunucu sanal makinesi ve bir depo sunucusu sanal makinesi dağıtmaktır. Aksi takdirde, iş yükünü üretim VMWare'inizden kaldırmak için her VMWare ana bilgisayarına bir yedek proxy VM ve bir ana bilgisayar dışı depo ana bilgisayarı dağıtabilirsiniz.
Kullanmanın üç yolu vardır. Ambedded Ceph Veeam Backup and Replication için havuzlar olarak cihaz. CephFSve RBDblockcihazlar şirket içi yedekleme havuzu olarak kullanılabilir. S3object storage uzak bir konum için kapasite katmanı olarak kullanılabilir.
Nasıl kurulacağı için Ceph RBD block cihaz ve CephFS file system Sanal makineleri ve dosyaları yedeklemek için Veeam'in yedekleme havuzu olarak, ayrıntıları bu sayfanın sonundaki tanıtım belgesinde bulabilirsiniz.
Test Ortamı
CephKüme -
- Üç Mars 400 3x ile monitors, 20 OSD ve 1x MDS (meta veri sunucusu)
- Her biri Ceph arka plan programı tek bir çift çekirdekte çalışır Arm A72 microserver
- İşletim Sistemi: CentOS 7
- Ceph yazılım: Nautilus 14.2.9 Arm64
- Ağ: 4x 10Gb ağ Mars 400
Veeam Backup & Replication 10, Sürüm: 10.0.1.4854
Veeam Backup Sunucusu
- CPU: Intel Xeon E5-2630 2.3GHz ÇİFT
- DRAM: 64 GB
- Ağ: 2x 10Gb sfp + bonding
- Disk: Sistem için 1 TB, birim için 256 GB SATA3 SSD
- Windows Sunucusu 2019
Veeam Proxy Sunucusu
- Veeam Backup Sunucusu ile aynı yerde bulunun
Depo Sunucusu
- Sanal makine
◇ CPU: 4 çekirdek 2.3GHz
◇ DRAM: 8 GB
◇ Ağ: köprü
◇ Disk: 50GB sanal disk
◇ İşletim Sistemi: CentOS 7.8.2003
- Baremetal Sunucu
◇ CPU: Intel Xeon X5650 2.67GHz ÇİFT
◇ DRAM: 48 GB
◇ Ağ: 2 bağlantı noktalı 10 Gb sfp + bağlantı
◇ Disk: sistem için 1 TB
◇ İşletim Sistemi: CentOS 7.6.1810
Hyper-V Ev sahibi
◇ CPU: Intel Xeon E5-2630 2.3GHz ÇİFT
◇ DRAM: 64 GB
◇ Ağ: 2 bağlantı noktalı 10 Gb sfp + bağlantı
◇ Disk: sistem için 1 TB
◇ Windows Sunucusu 2019
VMWare Ana Bilgisayarı
◇ CPU: Intel Xeon E5-2630 2.3GHz ÇİFT
◇ DRAM: 64 GB
◇ Ağ: 2 bağlantı noktalı 10 Gb sfp + bağlantı
◇ Disk: sistem için 1 TB
◇ ESXi 6.5
Ağ: 10GbE anahtarı
Çeşitli Kurulumlarda Kıyaslama
Çeşitli yedekleme havuzlarının yedekleme performansını karşılaştırmak için, farklı yedekleme havuzları ve üç yedekleme kaynağı ile testler yapıyoruz.
Testler için kullandığımız yedekleme kaynakları, bir sunucu üzerindeki SATA SSD tabanlı bir birim, Hyper-Vve bir CentOS 7 VM ve bir VMWare Windows VM.
(1) SSD Sürücüsünde bir birimi yedekleyin
Tablo 1. SATA SSD içeren bir sunucudan bir birimi yedekleyin.
Disk Boyutu (İşlenen veriler) | 237,9 GB |
Kaynaktan Veri Okunması | 200,1 GB |
Veri Aktarılan Ceph Tekilleştirme ve Sıkıştırma Sonrası | 69,7 GB |
Tekilleştirme | 1,3X |
Sıkıştırma | 2,7 kat |
Tablo 2.
Yedekleme Havuzu | Süre (sn) | Kaynak (%) | Vekil (%) | Ağ (%) | Hedef (%) | İşlem Hızı (MB / sn) | Ortalama Veri Yazma Hızı (MB / sn) |
Linux sanal makinesi, RBD-çoğaltma 3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM, CephFS- kopya 3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM, RBD, EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM, CephFS, EC | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Linux Sunucusu, RBD, EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
Not: Ortalama Veri Yazma Hızları, Aktarılan Verilerin Süre'ye bölünmesiyle hesaplanır. Bu oranlar,Ceph bu yedekleme işlerinde küme.
(2) Windows 10 sanal makinesini yedekleyin Hyper-V HDD'de
Bu karşılaştırmada, bir Hyper-VSATA sabit diskinde depolanan örnek. Bu işlerin işlem hızları, HDD bant genişliğinin üst sınırına ulaşır. Darboğazın kaynağında olduğunu da görebiliriz çünkü iş süresinin% 99'u boyunca yükleri meşgul.Ceph Küme, hedef, Veeam yedekleme işlerinden gelen iş yükü hafiftir. Ceph küme, çalışma süresinin yalnızca% 6 ila% 1'inde meşgul.
Önceki kıyaslama ile karşılaştırıldığında, VM yedeklemesinin işlem hızı SSD yedeklemesinden çok daha düşüktür. Bunun başlıca nedeni, VM verilerinin bir sabit sürücüde depolanmasıdır.
Tablo 3.
Disk Boyutu (HDD) | 127 GB |
Kaynaktan Veri Okundu | 37,9 GB |
Veri Aktarılan Cephsonra Deduplication ve Sıkıştırma | 21,4 GB |
Tekilleştirme | 3,3X |
Sıkıştırma | 1,8X |
Tablo 4. Bir sanal makineyi yedekleyin image SATA3 HDD'de
Yedekleme Havuzu | Süre (sn) | Kaynak (%) | Vekil (%) | Ağ (%) | Hedef (%) | İşlem Hızı (MB / sn) | Ortalama Veri Yazma Hızı (MB / sn) |
Linux VM, RBD birimi, EC | 363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM, CephFShacim, EC | 377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Linux Sunucusu, RBD hacmi, EC | 375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
Not: Ortalama Veri Yazma Hızları, Aktarılan Verilerin Süre'ye bölünmesiyle hesaplanır. Bu oranlar,Ceph bu yedekleme işlerinde küme.
(3) HDD'de ESXi'de Sanal Makineleri Yedekleme
Bu test, bir CentOS 7 ve bir VMWare ESXi 6.5 ana bilgisayarının HDD'si üzerinde çalışan bir Windows 10 Sanal makinesini, bir Ceph 4 + 2 ile RBD erasure codekoruma.
Tablo 5.
Kaynak | CentOS VM | Windows 10 VM |
Disk Boyutu (HDD) | 40 GB | 32 GB |
Kaynaktan Veri Okundu | 1,8 GB | 12,9 GB |
Veri Aktarılan Cephsonra Deduplication ve Sıkıştırma | 966 MB | 7,7 GB |
Tekilleştirme | 22.1X | 2.5X |
Sıkıştırma | 1,9 kat | 1,7X |
Tablo 6.
Yedek Kaynak | Süre (sn) | Kaynak (%) | Vekil (%) | Ağ (%) | Hedef (%) | İşlem Hızı (MB / sn) | Ortalama Veri Yazma Hızı (MB / sn) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Not: Ortalama Veri Yazma Hızları, Aktarılan Verilerin Süre'ye bölünmesiyle hesaplanır. Bu oranlar,Ceph bu yedekleme işlerinde küme.
Sonuçlar
Test sonuçlarına göre, Ceph RBD ve CephFSbenzer performansa sahip. Bu, RBD'nin karşılaştırmalı değerlendirmesine ilişkin deneyimimizi karşılar veCephFSverim. Özelliklerini karşılaştırmakCephFSve RBD, avantajları ve dezavantajları vardır. Birden fazla depo sunucusu dağıtmanız gerekiyorsa, bir RBD oluşturmanız gerekir.image her yedekleme havuzu sunucusu için yalnızca bağlayabileceğiniz CephBir ana bilgisayarda RBD. NazaranCephFS, meta veri sunucularına ihtiyaç duymadığından RBD'yi kullanmak daha kolaydır. Oluşturulduğunda RBD kapasite boyutunu atamamız gerekir, bu nedenle daha fazla alana ihtiyacınız olduğunda kapasitesini yeniden boyutlandırmanız gerekir.
Eğer kullanırsan CephFS depo olarak, en az bir meta veri sunucusu (MDS) dağıtmanız gerekir. Cephküme. Ayrıca yüksek kullanılabilirlik için bir yedek meta veri sunucusuna ihtiyacımız var. KıyasladığımızdaCeph RBD, vermenize gerek yok file systembir kota. Yani, tedavi edebilirsinizCephFS sınırsız depolama alanı olarak pool.
Bu kullanım örneği gösteriminde, testlerimiz her yedekleme işinde yalnızca bir VM'yi yedekler. Yukarıdaki test raporlarına göre, ortalama veri yazma hızının işlem hızı ve veri tekilleştirme ve sıkıştırma verimliliği ile ilgili olduğunu biliyoruz. Daha hızlı bir kaynak disk, yedekleme işi süresini azaltır ve daha hızlı bir işlem hızı sağlar. Kullanıcıların altyapısına bağlı olarak, kullanıcılar aynı anda farklı nesneleri yedeklemek için birkaç eşzamanlı işi dağıtabilir.Ceph storage birden çok eşzamanlı işi desteklemede çok iyi performans gösterir.
20x HDD OSD Ceph 3x destekli küme Ambedded Mars 400 4 + 2'ye 700 MB / sn.ye kadar toplu yazma verimi sunabilir erasure code pool. Birden fazla mevcut yedekleme işinin dağıtılması, genel yedekleme süresini kısaltma avantajını sağlar. Maksimum performansCeph küme, kümedeki toplam disk sürücüsü sayısıyla neredeyse doğrusal olarak orantılıdır.
Bu kullanım durumunda, S3 kullanarak test yapmadık object storageyedekleme deposu olarak. S3object storageVeeam Scale-Out yedekleme havuzunda ve NAS yedeklemesi için hedef arşiv havuzunda kapasite katmanı olarak kullanılabilir. Kolayca bir RADOS ağ geçidi kurabilir veobject storage kullanıcıları kolayca kullanarak Ambedded UVS manager, ceph yönetim ağı GUI.
- İndir
Kullanım Ceph Veeam Backup & Replication teknik raporu için havuz olarak
Nasıl kurulur Ceph RBD block cihaz ve CephFS file system sanal makineleri ve dosyaları yedeklemek için Veeam'in yedekleme havuzu...
Download- ilgili ürünler
Ceph Storage Appliance
Mars 400
Mars 400 Ceph Storage Appliancekurumsal ve veri merkezi için anahtar teslimi bir yazılım tanımlı depolama çözümüdür. Cihaz entegre olur...
ayrıntılarMars 400SES SUSE Enterprise Storage Cihaz
Mars 400SES
Mars400SES SUSE Enterprise Storage Cihaz şunlardan oluşur: ARM microserver donanım, 3 yıl SUSE Enterprise Storage & SUSE Linux...
ayrıntılar