
Ceph ile çalışmak için Veeam yedekleme ve arşivleme
Bu örnek olay incelemesi, Mars 400 ceph depolama cihazının Veeam yedekleme ve çoğaltmanın yedekleme havuzları olarak nasıl kullanılacağını açıklar.
Ceph, nesne depolamayı, blok depolamayı ve POSIX dosya sistemini tek bir kümede destekler. Yedekleme gereksinimlerine göre müşteriler, çeşitli depolama yedekleme stratejilerinin ihtiyaçlarını desteklemek için farklı depolama protokolleri seçebilir.
Bu yazımızda, yedekleme havuzları olarak Ceph blok depolama (Ceph RBD) ve Ceph dosya sistemi (Cephfs) kullanıyoruz ve Hyper-V ve VMWare'den sanal makineleri yedeklemenin yedekleme iş sürelerini karşılaştırıyoruz.
Veeam ve Ceph kullanarak Yedekleme Çözüm Mimarisi
VMWare ve Hyper-V üzerinde sanal makineleri yedekleme mimarisi benzerdir. Veeam, verileri kaynak ana bilgisayarlardan yedekleme havuzlarına aktarmak için veri taşıyıcıları kullanır. Veri taşıyıcılar, proxy sunucusunda ve veri havuzu sunucusunda çalışır. Ceph'i bir yedekleme havuzunun arka uç deposu olarak kullanmak için, depo sunucusu olarak bir Linux fiziksel sunucusuna veya sanal makineye RBD veya CephFS bağlayabilirsiniz.
Proxy ve havuz sunucuları hiper yönetici kümesi içindeki sanal makinelerse, VM diski, proxy sunucusu ve havuz sunucusu arasında ağdan bağımsız yüksek hızlı veri aktarımının avantajından yararlanabilirsiniz. Büyük bir hiper yönetici kümesinin en iyi yapılandırması, her VMWare ana bilgisayarında bir proxy sunucu VM'si ve bir havuz sunucusu VM'si dağıtmaktır. Aksi takdirde, iş yükünü üretim VMWare'inizden kaldırmak için her VMWare ana bilgisayarına bir yedek proxy VM'si ve bir ana bilgisayar dışı depo ana bilgisayarına dağıtabilirsiniz.
Veeam Backup and Replication için depolar olarak Ambedded Ceph cihazını kullanmanın üç yolu vardır. CephFS ve RBD blok cihazları , şirket içi yedekleme havuzu olarak kullanılabilir. S3 nesne depolaması , uzak bir konum için kapasite katmanı olarak kullanılabilir.
Ceph RBD blok cihazının ve CephFS dosya sisteminin Veeam'in sanal makineleri ve dosyaları yedeklemek için yedekleme havuzu olarak nasıl kurulacağına ilişkin ayrıntıları bu sayfanın sonundaki teknik incelemede bulabilirsiniz.
Test Ortamı
- 3x monitör, 20 OSD ve 1x MDS (meta veri sunucusu) içeren üç Mars 400
- Her Ceph arka plan programı bir çift çekirdekli Arm A72 mikro sunucusunda çalışır
- İşletim Sistemi: CentOS 7
- Ceph yazılımı: Nautilus 14.2.9 Arm64
- Ağ: Mars 400 başına 4x 10Gb ağ
Veeam Backup & Replication 10, Sürüm: 10.0.1.4854
Veeam Yedekleme Sunucusu
- CPU: Intel Xeon E5-2630 2.3GHz ÇİFT
- DRAM: 64GB
- Ağ: 2x 10Gb sfp+ bağlama
- Disk: Sistem için 1 TB, birim için 256 GB SATA3 SSD
- Windows Sunucusu 2019
Veeam Proxy Sunucusu
- Veeam Yedekleme Sunucusu ile birlikte çalışın
Depo Sunucusu
- Sanal makine
◇ CPU: 4 çekirdek 2.3GHz
◇ DRAM: 8GB
◇ Ağ: köprü
◇ Disk: 50GB sanal disk
◇ İşletim Sistemi: CentOS 7.8.2003
- Baremetal Sunucu
◇ CPU: Intel Xeon X5650 2.67GHz ÇİFT
◇ DRAM: 48GB
◇ Ağ: 2 bağlantı noktalı 10 Gb sfp+ bağlama
◇ Disk: sistem için 1 TB
◇ İşletim Sistemi: CentOS 7.6.1810
Hyper-V Ana Bilgisayarı
◇ CPU: Intel Xeon E5-2630 2.3GHz ÇİFT
◇ DRAM: 64GB
◇ Ağ: 2 bağlantı noktalı 10 Gb sfp+ bağlama
◇ Disk: sistem için 1 TB
◇ Windows Sunucusu 2019
VMWare Ana Bilgisayarı
◇ CPU: Intel Xeon E5-2630 2.3GHz ÇİFT
◇ DRAM: 64GB
◇ Ağ: 2 bağlantı noktalı 10 Gb sfp+ bağlama
◇ Disk: sistem için 1 TB
◇ ESXi 6.5
Ağ: 10GbE anahtarı
Çeşitli Kurulumlarda Karşılaştırma
Çeşitli yedekleme havuzlarının yedekleme performansını kıyaslamak için farklı yedekleme havuzları ve üç yedekleme kaynağıyla testler kurduk.
Testler için kullandığımız yedekleme kaynakları, bir sunucuda SATA SSD tabanlı birim, Hyper-V'nin Windows VM'si ve bir CentOS 7 VM ve VMWare'in Windows VM'sidir.
(1) Bir birimi SSD Sürücüsüne yedekleyin
Tablo 1. Bir birimi SATA SSD'li bir sunucudan yedekleyin.
Disk Boyutu (İşlenen veriler) | 237,9 GB |
Kaynaktan okunan veriler | 200,1 GB |
Tekilleştirme ve Sıkıştırma Sonrası Ceph'e Aktarılan Veriler | 69,7 GB |
tekilleştirme | 1.3X |
Sıkıştırma | 2.7X |
Tablo 2.
Yedekleme Deposu | Süre (sn) | Kaynak (%) | vekil (%) | Ağ (%) | Hedef (%) | İşleme Hızı (MB/s) | Ortalama Veri Yazma Hızı (MB/s) |
Linux VM, RBD-replika 3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM, CephFS-replika 3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM, RBD, EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM, CephFS, EC | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Linux Sunucusu, RBD, EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
Not: Ortalama Veri Yazma Hızları, Aktarılan Verilerin Süreye bölünmesiyle hesaplanır. Bu oranlar, bu yedekleme işlerinde Ceph kümesinin iş yüklerini temsil eder.
(2)Bir Windows 10 VM'yi Hyper-V'de HDD'de yedekleyin
Bu kıyaslamada, bir SATA sabit sürücüsünde depolanan bir Hyper-V örneğini yedekliyoruz. Bu işlerin işlem hızları, HDD bant genişliğinin üst sınırına ulaşır. İş süresinin %99'unda yükleri meşgul olduğu için darboğazı da kaynakta bulabiliriz. Ceph kümesi, hedef, Veeam yedekleme işlerinden gelen iş yükü hafiftir. Ceph kümesi, çalışma süresinin yalnızca %6 ila %1'inde meşgul.
Önceki kıyaslama ile karşılaştırıldığında, VM yedeklemesinin işlem hızı, SSD yedeklemesinden çok daha düşüktür. Bunun başlıca nedeni, VM verilerinin bir sabit sürücüde depolanmasıdır.
Tablo 3.
Disk Boyutu (HDD) | 127 GB |
Kaynaktan Veri Okuma | 37.9GB |
Tekilleştirme ve Sıkıştırma Sonrası Ceph'e Aktarılan Veriler | 21.4GB |
tekilleştirme | 3.3X |
Sıkıştırma | 1.8X |
Tablo 4. Sanal makine görüntüsünü SATA3 HDD'ye yedekleyin
Yedekleme Deposu | Süre (sn) | Kaynak (%) | vekil (%) | Ağ (%) | Hedef (%) | İşleme Hızı (MB/s) | Ortalama Veri Yazma Hızı (MB/s) |
Linux VM, RBD birimi, EC | 363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM, CephFS birimi, EC | 377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Linux Sunucusu, RBD birimi, EC | 375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
Not: Ortalama Veri Yazma Hızları, Aktarılan Verilerin Süreye bölünmesiyle hesaplanır. Bu oranlar, bu yedekleme işlerinde Ceph kümesinin iş yüklerini temsil eder.
(3) Sanal Makineleri HDD'de ESXi'de Yedekleyin
Bu test, bir VMWare ESXi 6.5 ana bilgisayarının HDD'sinde çalışan bir CentOS 7 ve Windows 10 Sanal makinelerini 4+2 silme kodu korumalı Ceph RBD tarafından desteklenen bir depoya yedekler.
Tablo 5.
Kaynak | CentOS sanal makinesi | Windows 10 sanal makine |
Disk Boyutu (HDD) | 40 GB | 32GB |
Kaynaktan Veri Okuma | 1.8 GB | 12.9 GB |
Tekilleştirme ve Sıkıştırma Sonrası Ceph'e Aktarılan Veriler | 966MB | 7,7 GB |
tekilleştirme | 22.1X | 2.5X |
Sıkıştırma | 1.9X | 1.7X |
Tablo 6.
Yedekleme Kaynağı | Süre (sn) | Kaynak (%) | vekil (%) | Ağ (%) | Hedef (%) | İşleme Hızı (MB/s) | Ortalama Veri Yazma Hızı (MB/s) |
CentOS7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Not: Ortalama Veri Yazma Hızları, Aktarılan Verilerin Süreye bölünmesiyle hesaplanır. Bu oranlar, bu yedekleme işlerinde Ceph kümesinin iş yüklerini temsil eder.
Sonuçlar
Test sonuçlarına göre Ceph RBD ve CephFS benzer performansa sahiptir. Bu, RBD ve CephFS performansının kıyaslamasıyla ilgili deneyimimizi karşılamaktadır. CephFS ve RBD'nin özelliklerini karşılaştırırken, avantajları ve dezavantajları vardır. Birden fazla depo sunucusu dağıtmanız gerekiyorsa, Ceph RBD'yi yalnızca bir ana bilgisayara bağlayabileceğiniz için her yedekleme deposu sunucusu için bir RBD görüntüsü oluşturmanız gerekir. CephFS ile karşılaştırıldığında, meta veri sunucularına ihtiyaç duymadığından RBD kullanmak daha basittir. Oluşturulduğunda RBD kapasite boyutunu atamamız gerekiyor, bu nedenle daha fazla alana ihtiyacınız olduğunda kapasitesini yeniden boyutlandırmanız gerekiyor.
Depo olarak CephFS kullanıyorsanız, Ceph kümesinde en az bir meta veri sunucusu (MDS) dağıtmanız gerekir. Ayrıca yüksek kullanılabilirlik için bir bekleme meta veri sunucusuna ihtiyacımız var. Ceph RBD ile karşılaştırıldığında, dosya sistemine bir kota vermenize gerek yoktur. Böylece CephFS'yi sınırsız bir depolama havuzu olarak değerlendirebilirsiniz.
Bu kullanım örneği gösteriminde, testlerimiz her yedekleme işinde yalnızca bir VM'yi yedekler. Yukarıdaki test raporlarına göre, ortalama veri yazma hızının, işleme hızı ve veri tekilleştirme ve sıkıştırma verimliliği ile ilgili olduğunu biliyoruz. Daha hızlı bir kaynak disk, yedekleme işinin süresini azaltır ve daha hızlı bir işleme hızı ile sonuçlanır. Kullanıcıların altyapısına bağlı olarak, kullanıcılar farklı nesneleri aynı anda yedeklemek için birkaç eşzamanlı işi dağıtabilir. Ceph depolama, birden çok eşzamanlı işi desteklemede çok iyi performans gösterir.
3x Ambedded Mars 400 tarafından desteklenen 20x HDD OSD Ceph kümesi, 4+2 silme kodu havuzuna 700 MB/sn'ye kadar toplu yazma verimi sunabilir. Birden çok geçerli yedekleme görevi dağıtmak, genel yedekleme süresini azaltma avantajını sağlar. Bir Ceph kümesinin maksimum performansı, kümedeki toplam disk sürücüsü sayısıyla neredeyse doğrusal olarak orantılıdır.
Bu kullanım örneğinde, yedekleme havuzu olarak S3 nesne deposunu kullanmayı test etmedik. S3 nesne depolama, NAS yedeklemesi için Veeam Scale-Out yedekleme havuzunda ve hedef arşiv havuzunda kapasite katmanı olarak kullanılabilir. Ambedded UVS yöneticisi, ceph yönetimi web GUI'sini kullanarak kolayca bir RADOS ağ geçidi kurabilir ve nesne depolama kullanıcıları oluşturabilirsiniz.
- İndirmek
Ceph'i Veeam Backup & Replication teknik incelemesi için depo olarak kullanın
Ceph RBD blok cihazı ve CephFS dosya sistemi, sanal makineleri ve dosyaları yedeklemek için Veeam'in yedekleme havuzu olarak nasıl kurulur?
İndirmek- ilgili ürünler
Ceph Depolama Cihazı
Mars 400PRO
UniVirStor, ceph tabanlı bir yazılım tanımlı depolama cihazıdır. Ambedded Ceph depolama cihazı, ayarlanmış Ceph yazılımı, Web UI ve Arm mikro...
DetaylarMars 400SES SUSE Kurumsal Depolama Cihazı
Mars 400 SES
Mars400SES SUSE Enterprise Storage Appliance, ARM mikro sunucu donanımı, 3 yıllık SUSE Enterprise Storage ve SUSE Linux Enterprise Server aboneliği,...
Detaylar