Cadangan dan arsip Veeam untuk bekerja dengan Ceph / Alat penyimpanan Ceph mengintegrasikan tumpukan perangkat lunak yang disetel dan server Arm yang dirancang khusus menawarkan kinerja, keandalan, UI web, dan pengurangan TCO yang luar biasa.

Studi kasus ini menjelaskan cara menggunakan alat penyimpanan Mars 400 ceph sebagai repositori cadangan untuk pencadangan dan replikasi Veeam. Ceph mendukung penyimpanan objek, penyimpanan blok, dan sistem file POSIX semuanya dalam satu cluster. Menurut persyaratan pencadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi pencadangan penyimpanan. Dalam artikel ini, kami menggunakan penyimpanan blok Ceph (Ceph RBD) dan sistem file Ceph (Cephfs) sebagai repositori cadangan dan membandingkan durasi pekerjaan pencadangan mereka untuk mencadangkan mesin virtual dari Hyper-V dan VMWare. Dengan lebih dari 20 tahun pengalaman Penyimpanan yang Ditentukan Perangkat Lunak, Dilengkapi dengan tim berbakat yang berpengalaman dalam desain dan pembuatan alat penyimpanan yang ditentukan perangkat lunak berbasis ARM.

service@ambedded.com.tw

Jam buka: 9 pagi - 6 sore

Mengapa dan Bagaimana Menggunakan Ceph Storage Appliance sebagai Repositori Cadangan & Replikasi Veeam

Cadangan dan arsip Veeam untuk bekerja dengan Ceph

Studi kasus ini menjelaskan cara menggunakan alat penyimpanan Mars 400 ceph sebagai repositori cadangan untuk pencadangan dan replikasi Veeam.
Ceph mendukung penyimpanan objek, penyimpanan blok, dan sistem file POSIX semuanya dalam satu cluster. Menurut persyaratan pencadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi pencadangan penyimpanan.
 
Dalam artikel ini, kami menggunakan penyimpanan blok Ceph (Ceph RBD) dan sistem file Ceph (Cephfs) sebagai repositori cadangan dan membandingkan durasi pekerjaan pencadangan mereka untuk mencadangkan mesin virtual dari Hyper-V dan VMWare.


Arsitektur Solusi Cadangan dengan menggunakan Veeam dan Ceph

Arsitektur back up mesin virtual pada VMWare dan Hyper-V serupa. Veeam menggunakan penggerak data untuk mentransfer data dari host sumber ke repositori cadangan. Penggerak data berjalan di server proxy dan server repositori. Untuk menggunakan Ceph sebagai penyimpanan backend dari repositori cadangan, Anda dapat memasang RBD atau CephFS di server fisik Linux atau mesin virtual sebagai server repositori. 

Jika proxy dan server repositori adalah mesin virtual di dalam cluster hypervisor, Anda bisa mendapatkan manfaat dari transportasi data berkecepatan tinggi bebas jaringan antara disk VM, server proxy, dan server repositori. Konfigurasi terbaik dari cluster hypervisor besar adalah dengan menyebarkan satu VM server proxy dan satu VM server repositori di setiap host VMWare. Jika tidak, Anda dapat menerapkan satu VM proxy cadangan di setiap host VMWare dan satu host repositori di luar host untuk menghapus beban kerja dari VMWare produksi Anda.

Ada tiga cara untuk menggunakan alat Ceph Ambedded sebagai repositori untuk Pencadangan dan Replikasi Veeam. Perangkat blok CephFS dan RBD dapat digunakan sebagai repositori cadangan lokal. The S3 penyimpanan objek dapat digunakan sebagai tier kapasitas untuk lokasi terpencil.

Untuk cara mengatur perangkat blok Ceph RBD dan sistem file CephFS sebagai repositori cadangan Veeam untuk mencadangkan mesin dan file virtual, Anda dapat menemukan detailnya di buku putih di akhir halaman ini.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

Lingkungan Pengujian

Kelompok Ceph

  • Tiga Mars 400 dengan 3x monitor, 20 OSD, dan 1x MDS (server metadata)
  • Setiap daemon Ceph berjalan pada satu microserver Arm A72 dual-core
  • Sistem Operasi: CentOS 7
  • Perangkat lunak Ceph: Nautilus 14.2.9 Arm64
  • Jaringan: Jaringan 4x 10Gb per Mars 400 

Cadangan & Replikasi Veeam 10, Versi: 10.0.1.4854

Server Cadangan Veeam

  • CPU: Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM: 64GB
  • Jaringan: 2x 10Gb sfp+ bonding
  • Disk: 1TB untuk sistem, 256GB SATA3 SSD untuk volume
  • Windows Server 2019

 Server Proksi Veeam

  • kolokasi dengan Server Cadangan Veeam

 Server Repositori

  • Mesin virtual

CPU: 4 core 2.3GHz

DRAM: 8GB

Jaringan: jembatan

Disk: disk virtual 50GB

OS: CentOS 7.8.2003

  • Server Baremetal

CPU: Intel Xeon X5650 2.67GHz DUAL

DRAM: 48GB

Jaringan: 2-port 10Gb sfp+ bonding

Disk: 1TB untuk sistem

OS: CentOS 7.6.1810

Host Hyper-V

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64GB

◇   Jaringan: 2-port 10GB sfp + ikatan

◇   Disk: 1TB untuk sistem

◇   Windows Server 2019

VMWare Host

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64GB

◇   Jaringan: 2-port 10GB sfp + ikatan

◇   Disk: 1TB untuk sistem

◇   ESXi 6.5

Jaringan: sakelar 10GbE

Tolok Ukur pada Berbagai Pengaturan

Untuk membandingkan kinerja pencadangan berbagai repositori cadangan, kami menyiapkan pengujian dengan berbagai repositori cadangan dan tiga sumber cadangan. 

Sumber cadangan yang kami gunakan untuk pengujian adalah volume berbasis SSD SATA di server, VM Windows dari Hyper-V, dan VM CentOS 7 dan VM Windows dari VMWare.

(1) Cadangkan volume pada Drive SSD

Tabel 1. Mencadangkan volume dari server dengan SSD SATA.

Ukuran Disk (Data diproses) 237.9 GB
Data Baca dari sumbernya 200.1 GB
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi 69.7 GB
Deduplikasi 1.3X
Kompresi 2,7X


Meja 2.

Cadangan
Repositori
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Sasaran
(%)
Kecepatan Pemrosesan
(MB/dtk)
Rata-rata
Kecepatan Tulis Data
(MB/dtk)
Linux VM,
replika RBD 3
646 83 33 84 21 554 110
Linux VM,
CephFS-replika 3
521 97 25 31 5 564 137
Linux VM,
RBD, EC
645 82 34 83 24 554 111
Linux VM,
CephFS, EC
536 97 26 27 4 564 133
Server Linux,
RBD, EC
526 97 21 16 3 561 136

Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerja cluster Ceph dalam tugas pencadangan ini.

(2) Cadangkan Windows 10 VM di Hyper-V di HDD

Dalam benchmark ini, kami mencadangkan instans Hyper-V yang disimpan di hard drive SATA. Tingkat pemrosesan pekerjaan ini mencapai batas atas bandwidth HDD. Kami juga dapat menemukan hambatan pada sumbernya karena beban mereka sibuk selama 99% dari durasi pekerjaan. Cluster Ceph, targetnya, beban kerja dari pekerjaan backup Veeam ringan. Cluster Ceph hanya sibuk pada 6% hingga 1% dari waktu kerja.

Dibandingkan dengan tolok ukur sebelumnya, tingkat pemrosesan cadangan VM jauh lebih rendah daripada cadangan SSD. Ini terutama karena data VM disimpan dalam hard drive. 

Tabel 3.

Ukuran Disk (HDD) 127GB
Data Baca dari sumber 37.9 GB
Data Ditransfer ke Ceph setelah
Deduplikasi dan Kompresi
21.4GB
Deduplikasi 3.3X
Kompresi 1.8X


Tabel 4. Mencadangkan citra mesin virtual pada HDD SATA3

Cadangan
Repositori
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Sasaran
(%)
Kecepatan Pemrosesan
(MB/dtk)
Rata-rata
Kecepatan Tulis Data
(MB/dtk)
Linux VM,
volume RBD, EC
363 99 7 3 6 145 60
Linux VM,
volume CephFS,
EC
377 99 7 2 1 142 58.1
Server Linux,
volume RBD, EC
375 99 6 2 2 140 58.4

Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerja cluster Ceph dalam tugas pencadangan ini.

(3) Backup Mesin Virtual pada ESXi pada HDD

Tes ini mencadangkan mesin Virtual CentOS 7 dan Windows 10 yang berjalan pada HDD host VMWare ESXi 6.5 ke repositori yang didukung oleh Ceph RBD dengan perlindungan kode penghapusan 4+2. 

Tabel 5.

Sumber CentOS VM Windows 10 VM
Ukuran Disk (HDD) 40GB 32GB
Data Baca dari sumber 1,8 GB 12.9GB
Data Ditransfer ke Ceph setelah
Deduplikasi dan Kompresi
966MB 7.7GB
Deduplikasi 22.1X 2.5X
Kompresi 1.9X 1.7X


Tabel 6.

Sumber Cadangan
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Sasaran
(%)
Kecepatan Pemrosesan
(MB/dtk)
Rata-rata
Kecepatan Tulis Data
(MB/dtk)
CentOS 7 122 99 10 5 0 88 8
Windows 10 244 99 11 5 1 93 32

Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerja cluster Ceph dalam tugas pencadangan ini.

Kesimpulan

Menurut hasil pengujian, Ceph RBD dan CephFS memiliki kinerja yang serupa. Ini sesuai dengan pengalaman kami mengenai tolok ukur kinerja RBD dan CephFS. Membandingkan karakteristik CephFS dan RBD, mereka memiliki kelebihan dan kekurangan. Jika Anda perlu menggunakan beberapa server repositori, Anda harus membuat image RBD untuk setiap server repositori cadangan karena Anda hanya dapat memasang Ceph RBD pada satu host. Dibandingkan dengan CephFS, menggunakan RBD lebih sederhana karena tidak memerlukan server metadata. Kami harus menetapkan ukuran kapasitas RBD saat dibuat, jadi Anda harus mengubah ukuran kapasitasnya saat Anda membutuhkan lebih banyak ruang.

Jika Anda menggunakan CephFS sebagai repositori, Anda harus menerapkan setidaknya satu server metadata (MDS) di cluster Ceph. Kami juga membutuhkan server metadata siaga untuk ketersediaan tinggi. Dibandingkan dengan Ceph RBD, Anda tidak perlu memberi sistem file kuota. Jadi, Anda dapat memperlakukan CephFS sebagai kumpulan penyimpanan tanpa batas.

Dalam demonstrasi kasus penggunaan ini, pengujian kami hanya mencadangkan satu VM di setiap tugas pencadangan. Menurut laporan pengujian di atas, kita mengetahui bahwa kecepatan penulisan data rata-rata terkait dengan kecepatan pemrosesan dan deduplikasi data serta efisiensi kompresi. Disk sumber yang lebih cepat mengurangi durasi pekerjaan pencadangan dan menghasilkan tingkat pemrosesan yang lebih cepat. Bergantung pada infrastruktur pengguna, pengguna dapat menggunakan beberapa pekerjaan bersamaan untuk mencadangkan objek yang berbeda secara bersamaan. Penyimpanan Ceph berkinerja sangat baik dalam mendukung beberapa pekerjaan bersamaan. 

Cluster 20x HDD OSD Ceph yang ditenagai oleh 3x Ambedded Mars 400 dapat menawarkan throughput penulisan agregat hingga 700MB/dtk ke kumpulan kode penghapusan 4+2. Menyebarkan beberapa pekerjaan pencadangan saat ini mendapat manfaat dari pengurangan durasi pencadangan secara keseluruhan. Kinerja maksimum cluster Ceph hampir berbanding lurus dengan jumlah total disk drive di cluster.

Dalam kasus penggunaan ini, kami tidak menguji menggunakan penyimpanan objek S3 sebagai repositori cadangan. Penyimpanan objek S3 dapat digunakan sebagai tingkat kapasitas di repositori cadangan Veeam Scale-Out dan repositori arsip target untuk cadangan NAS. Anda dapat dengan mudah mengatur gateway RADOS dan membuat pengguna penyimpanan objek dengan mudah menggunakan manajer Ambedded UVS, GUI web manajemen ceph.

Unduh
Gunakan Ceph sebagai repositori untuk kertas putih Cadangan & Replikasi Veeam
Gunakan Ceph sebagai repositori untuk kertas putih Cadangan & Replikasi Veeam

Cara mengatur perangkat blok Ceph RBD dan sistem file CephFS sebagai repositori cadangan Veeam untuk mencadangkan mesin dan file virtual

Download
Produk-produk terkait
Alat Penyimpanan Ceph - Ceph Storage Appliance Mars 400 depan.
Alat Penyimpanan Ceph
Mars 400PRO

UniVirStor adalah alat penyimpanan yang ditentukan perangkat lunak berbasis ceph. Alat penyimpanan Ceph yang disematkan mengintegrasikan perangkat lunak...

Detail
Peralatan Penyimpanan Perusahaan SUSE Mars 400SES - Mars 400SES SUSE Enterprise Storage 6 (Nautilus) Appliance.
Peralatan Penyimpanan Perusahaan SUSE Mars 400SES
Mars 400SES

Mars400SES SUSE Enterprise Storage Appliance terdiri dari perangkat keras microserver ARM, 3 tahun langganan SUSE Enterprise Storage & SUSE Linux Enterprise...

Detail

Ambedded - Solusi penyimpanan Ceph profesional untuk pasar.

Terletak di Taiwan sejak 2013, Ambedded Technology Co., LTD. adalah penyedia solusi penyimpanan Ceph yang menawarkan perangkat penyimpanan yang ditentukan perangkat lunak berbasis ARM dengan penghematan CapEX 60%, konsumsi daya 70% lebih sedikit, dan keunggulan penskalaan 100%.

Untuk perancangan dan pembuatan penyimpanan yang ditentukan Perangkat Lunak, tim Ambedded memiliki pengalaman luas untuk membantu pelanggan mengadopsi solusi ceph ke dalam industri serbaguna, seperti Telecom, medis, militer, pusat data tepi, dan penyimpanan perusahaan yang diperlukan HA.

Ambedded telah menawarkan solusi penyimpanan Ceph kepada pelanggan sejak 2013, baik teknologi canggih maupun pengalaman 20 tahun, Ambedded memastikan setiap permintaan pelanggan terpenuhi.