
Cadangan dan arsip Veeam untuk bekerja dengan Ceph
Studi kasus ini menjelaskan cara menggunakan alat penyimpanan Mars 400 ceph sebagai repositori cadangan untuk pencadangan dan replikasi Veeam.
Ceph mendukung penyimpanan objek, penyimpanan blok, dan sistem file POSIX semuanya dalam satu cluster. Menurut persyaratan pencadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi pencadangan penyimpanan.
Dalam artikel ini, kami menggunakan penyimpanan blok Ceph (Ceph RBD) dan sistem file Ceph (Cephfs) sebagai repositori cadangan dan membandingkan durasi pekerjaan pencadangan mereka untuk mencadangkan mesin virtual dari Hyper-V dan VMWare.
Arsitektur Solusi Cadangan dengan menggunakan Veeam dan Ceph
Arsitektur back up mesin virtual pada VMWare dan Hyper-V serupa. Veeam menggunakan penggerak data untuk mentransfer data dari host sumber ke repositori cadangan. Penggerak data berjalan di server proxy dan server repositori. Untuk menggunakan Ceph sebagai penyimpanan backend dari repositori cadangan, Anda dapat memasang RBD atau CephFS di server fisik Linux atau mesin virtual sebagai server repositori.
Jika proxy dan server repositori adalah mesin virtual di dalam cluster hypervisor, Anda bisa mendapatkan manfaat dari transportasi data berkecepatan tinggi bebas jaringan antara disk VM, server proxy, dan server repositori. Konfigurasi terbaik dari cluster hypervisor besar adalah dengan menyebarkan satu VM server proxy dan satu VM server repositori di setiap host VMWare. Jika tidak, Anda dapat menerapkan satu VM proxy cadangan di setiap host VMWare dan satu host repositori di luar host untuk menghapus beban kerja dari VMWare produksi Anda.
Ada tiga cara untuk menggunakan alat Ceph Ambedded sebagai repositori untuk Pencadangan dan Replikasi Veeam. Perangkat blok CephFS dan RBD dapat digunakan sebagai repositori cadangan lokal. Penyimpanan objek S3 dapat digunakan sebagai tingkat kapasitas untuk lokasi yang jauh.
Untuk cara mengatur perangkat blok Ceph RBD dan sistem file CephFS sebagai repositori cadangan Veeam untuk mencadangkan mesin dan file virtual, Anda dapat menemukan detailnya di buku putih di akhir halaman ini.
Lingkungan Pengujian
Kelompok Ceph
- Tiga Mars 400 dengan 3x monitor, 20 OSD, dan 1x MDS (server metadata)
- Setiap daemon Ceph berjalan pada satu microserver Arm A72 dual-core
- Sistem Operasi: CentOS 7
- Perangkat lunak Ceph: Nautilus 14.2.9 Arm64
- Jaringan: Jaringan 4x 10Gb per Mars 400
Cadangan & Replikasi Veeam 10, Versi: 10.0.1.4854
Server Cadangan Veeam
- CPU: Intel Xeon E5-2630 2.3GHz DUAL
- DRAM: 64GB
- Jaringan: 2x 10Gb sfp+ bonding
- Disk: 1TB untuk sistem, 256GB SATA3 SSD untuk volume
- Windows Server 2019
Server Proksi Veeam
- kolokasi dengan Server Cadangan Veeam
Server Repositori
- Mesin virtual
CPU: 4 core 2.3GHz
DRAM: 8GB
Jaringan: jembatan
Disk: disk virtual 50GB
OS: CentOS 7.8.2003
- Server Baremetal
CPU: Intel Xeon X5650 2.67GHz DUAL
DRAM: 48GB
Jaringan: 2-port 10Gb sfp+ bonding
Disk: 1TB untuk sistem
OS: CentOS 7.6.1810
Host Hyper-V
CPU: Intel Xeon E5-2630 2.3GHz DUAL
DRAM : 64GB
Jaringan: 2-port 10Gb sfp + bonding
Disk : 1TB untuk sistem
Windows Server 2019
VMWare Host
CPU: Intel Xeon E5-2630 2.3GHz DUAL
DRAM : 64GB
Jaringan: 2-port 10Gb sfp + bonding
Disk : 1TB untuk sistem
ESXi 6.5
Jaringan: sakelar 10GbE
Tolok Ukur pada Berbagai Pengaturan
Untuk membandingkan kinerja pencadangan berbagai repositori cadangan, kami menyiapkan pengujian dengan berbagai repositori cadangan dan tiga sumber cadangan.
Sumber cadangan yang kami gunakan untuk pengujian adalah volume berbasis SSD SATA di server, VM Windows dari Hyper-V, dan VM CentOS 7 dan VM Windows dari VMWare.
(1) Cadangkan volume pada Drive SSD
Tabel 1. Mencadangkan volume dari server dengan SSD SATA.
Ukuran Disk (Data diproses) | 237.9 GB |
Data Baca dari sumbernya | 200.1 GB |
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi | 69.7 GB |
Deduplikasi | 1.3X |
Kompresi | 2,7X |
Meja 2.
Cadangan Repositori | Durasi (dtk) | Sumber (%) | Proksi (%) | Jaringan (%) | Sasaran (%) | Kecepatan Pemrosesan (MB/dtk) | Rata- rata Kecepatan Tulis Data (MB/dtk) |
Linux VM, replika RBD 3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM, CephFS-replika 3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM, RBD, EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM, CephFS, EC | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
Server Linux, RBD, EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerja cluster Ceph dalam tugas pencadangan ini.
(2) Cadangkan Windows 10 VM di Hyper-V di HDD
Dalam benchmark ini, kami mencadangkan instans Hyper-V yang disimpan di hard drive SATA. Tingkat pemrosesan pekerjaan ini mencapai batas atas bandwidth HDD. Kami juga dapat menemukan hambatan pada sumbernya karena beban mereka sibuk selama 99% dari durasi pekerjaan. Cluster Ceph, targetnya, beban kerja dari pekerjaan backup Veeam ringan. Cluster Ceph hanya sibuk pada 6% hingga 1% dari waktu kerja.
Dibandingkan dengan tolok ukur sebelumnya, tingkat pemrosesan cadangan VM jauh lebih rendah daripada cadangan SSD. Ini terutama karena data VM disimpan dalam hard drive.
Tabel 3.
Ukuran Disk (HDD) | 127GB |
Data Baca dari sumber | 37.9 GB |
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi | 21.4GB |
Deduplikasi | 3.3X |
Kompresi | 1.8X |
Tabel 4. Mencadangkan citra mesin virtual pada HDD SATA3
Cadangan Repositori | Durasi (dtk) | Sumber (%) | Proksi (%) | Jaringan (%) | Sasaran (%) | Kecepatan Pemrosesan (MB/dtk) | Rata- rata Kecepatan Tulis Data (MB/dtk) |
Linux VM, volume RBD, EC | 363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM, volume CephFS, EC | 377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Server Linux, volume RBD, EC | 375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerja cluster Ceph dalam tugas pencadangan ini.
(3) Backup Mesin Virtual pada ESXi pada HDD
Tes ini mencadangkan mesin Virtual CentOS 7 dan Windows 10 yang berjalan pada HDD host VMWare ESXi 6.5 ke repositori yang didukung oleh Ceph RBD dengan perlindungan kode penghapusan 4+2.
Tabel 5.
Sumber | CentOS VM | Windows 10 VM |
Ukuran Disk (HDD) | 40GB | 32GB |
Data Baca dari sumber | 1,8 GB | 12.9GB |
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi | 966MB | 7.7GB |
Deduplikasi | 22.1X | 2.5X |
Kompresi | 1.9X | 1.7X |
Tabel 6.
Sumber Cadangan | Durasi (dtk) | Sumber (%) | Proksi (%) | Jaringan (%) | Sasaran (%) | Kecepatan Pemrosesan (MB/dtk) | Rata- rata Kecepatan Tulis Data (MB/dtk) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerja cluster Ceph dalam tugas pencadangan ini.
Kesimpulan
Menurut hasil pengujian, Ceph RBD dan CephFS memiliki kinerja yang serupa. Ini sesuai dengan pengalaman kami mengenai tolok ukur kinerja RBD dan CephFS. Membandingkan karakteristik CephFS dan RBD, mereka memiliki kelebihan dan kekurangan. Jika Anda perlu menggunakan beberapa server repositori, Anda harus membuat image RBD untuk setiap server repositori cadangan karena Anda hanya dapat memasang Ceph RBD pada satu host. Dibandingkan dengan CephFS, menggunakan RBD lebih sederhana karena tidak memerlukan server metadata. Kami harus menetapkan ukuran kapasitas RBD saat dibuat, jadi Anda harus mengubah ukuran kapasitasnya saat Anda membutuhkan lebih banyak ruang.
Jika Anda menggunakan CephFS sebagai repositori, Anda harus menerapkan setidaknya satu server metadata (MDS) di cluster Ceph. Kami juga membutuhkan server metadata siaga untuk ketersediaan tinggi. Dibandingkan dengan Ceph RBD, Anda tidak perlu memberi sistem file kuota. Jadi, Anda dapat memperlakukan CephFS sebagai kumpulan penyimpanan tanpa batas.
Dalam demonstrasi kasus penggunaan ini, pengujian kami hanya mencadangkan satu VM di setiap tugas pencadangan. Menurut laporan pengujian di atas, kita mengetahui bahwa kecepatan penulisan data rata-rata terkait dengan kecepatan pemrosesan dan deduplikasi data serta efisiensi kompresi. Disk sumber yang lebih cepat mengurangi durasi pekerjaan pencadangan dan menghasilkan tingkat pemrosesan yang lebih cepat. Bergantung pada infrastruktur pengguna, pengguna dapat menggunakan beberapa pekerjaan bersamaan untuk mencadangkan objek yang berbeda secara bersamaan. Penyimpanan Ceph berkinerja sangat baik dalam mendukung beberapa pekerjaan bersamaan.
Cluster 20x HDD OSD Ceph yang ditenagai oleh 3x Ambedded Mars 400 dapat menawarkan throughput penulisan agregat hingga 700MB/dtk ke kumpulan kode penghapusan 4+2. Menyebarkan beberapa pekerjaan pencadangan saat ini mendapat manfaat dari pengurangan durasi pencadangan secara keseluruhan. Kinerja maksimum cluster Ceph hampir berbanding lurus dengan jumlah total disk drive di cluster.
Dalam kasus penggunaan ini, kami tidak menguji menggunakan penyimpanan objek S3 sebagai repositori cadangan. Penyimpanan objek S3 dapat digunakan sebagai tingkat kapasitas di repositori cadangan Veeam Scale-Out dan repositori arsip target untuk cadangan NAS. Anda dapat dengan mudah mengatur gateway RADOS dan membuat pengguna penyimpanan objek dengan mudah menggunakan manajer Ambedded UVS, GUI web manajemen ceph.
- Unduh
Gunakan Ceph sebagai repositori untuk kertas putih Cadangan & Replikasi Veeam
Cara mengatur perangkat blok Ceph RBD dan sistem file CephFS sebagai repositori cadangan Veeam untuk mencadangkan mesin dan file virtual
Unduh- Produk-produk terkait
Alat Penyimpanan Ceph
Mars 400PRO
UniVirStor adalah alat penyimpanan yang ditentukan perangkat lunak berbasis ceph. Alat penyimpanan Ceph yang disematkan mengintegrasikan perangkat lunak...
rincianAlat Penyimpanan Perusahaan SUSE Mars 400SES
Mars 400SES
Mars400SES SUSE Enterprise Storage Appliance terdiri dari perangkat keras microserver ARM, 3 tahun langganan SUSE Enterprise Storage & SUSE Linux Enterprise...
rincian