Veeam backup dan arsip bekerja dengan Ceph| Manajemen penyimpanan Ceph yang hemat biaya | Ambedded

Mengapa dan Bagaimana Menggunakan Perangkat Penyimpanan Ceph sebagai Repositori Veeam Backup & Replication| Mars 400 - Penyimpanan Ceph dengan Kepadatan Tinggi

Mengapa dan Bagaimana Menggunakan Perangkat Penyimpanan Ceph sebagai Repositori Veeam Backup & Replication

Veeam backup dan arsip bekerja dengan Ceph

Studi kasus ini menjelaskan bagaimana menggunakan perangkat penyimpanan ceph Mars 400 sebagai repositori cadangan dari Veeam backup dan replikasi.
Ceph mendukung penyimpanan objek, penyimpanan blok, dan sistem file POSIX dalam satu klaster. Sesuai dengan persyaratan cadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi cadangan penyimpanan.
 
Dalam artikel ini, kami menggunakan penyimpanan blok Ceph (Ceph RBD) dan sistem file Ceph (Cephfs) sebagai repositori cadangan dan membandingkan durasi pekerjaan cadangan mereka dalam mencadangkan mesin virtual dari Hyper-V dan VMWare.


Arsitektur Solusi Backup dengan menggunakan Veeam dan Ceph

Arsitektur dari melakukan backup mesin virtual pada VMWare dan Hyper-V mirip. Veeam menggunakan data mover untuk mentransfer data dari host sumber ke repositori backup. Data mover berjalan pada server proxy dan server repositori. Untuk menggunakan Ceph sebagai penyimpanan backend dari repositori backup, Anda dapat melakukan mount RBD atau CephFS pada server fisik Linux atau mesin virtual sebagai server repositori.

Jika server proxy dan server repositori adalah mesin virtual di dalam kluster hipervisor, Anda dapat memperoleh manfaat dari pengangkutan data berkecepatan tinggi tanpa jaringan antara disk VM, server proxy, dan server repositori. Konfigurasi terbaik dari sebuah kluster hypervisor besar adalah dengan mendeploy satu server proxy VM dan satu server repositori VM pada setiap host VMWare. Atau, Anda dapat mendeploy satu backup proxy VM pada setiap host VMWare dan satu host repositori off-host untuk mengurangi beban kerja dari VMWare produksi Anda.

Ada tiga cara untuk menggunakan perangkat Ambedded Ceph sebagai repositori untuk Veeam Backup and Replication.CephFS dan perangkat blok RBD dapat digunakan sebagai repositori cadangan di lokasi.Penyimpanan objek S3 dapat digunakan sebagai lapisan kapasitas untuk lokasi jarak jauh.

Untuk cara mengatur blok perangkat Ceph RBD dan sistem file CephFS sebagai repositori cadangan Veeam untuk mencadangkan mesin virtual dan file, Anda dapat menemukan detailnya pada white paper di bagian akhir halaman ini.


Server proxy dan server repositori Veeam adalah mesin virtual di dalam klaster hipervisor, dengan penyimpanan Mars 400 ceph untuk menyediakan RBD dan cephfs
klaster hipervisor yang besar adalah untuk mendeploy satu server proxy VM dan satu server repositori VM pada setiap host VMWare, untuk menyimpan data backup ke dalam ceph RBD atau cephfs

Lingkungan Uji

Kluster Ceph

  • Tiga Mars 400 dengan 3x monitor, 20 OSD, dan 1x MDS (server metadata)
  • Setiap daemon Ceph berjalan pada satu mikroserver Arm A72 dual-core
  • Sistem Operasi: CentOS 7
  • Perangkat lunak Ceph: Nautilus 14.2.9 Arm64
  • Jaringan: 4x jaringan 10Gb per Mars 400 

Veeam Backup & Replication 10, Versi: 10.0.1.4854

Server Backup Veeam

  • CPU: Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM: 64GB
  • Jaringan: 2x 10Gb sfp+ bonding
  • Diska: 1TB untuk sistem, 256GB SATA3 SSD untuk volume
  • Windows Server 2019

 Server Proxy Veeam

  • diletakkan bersama dengan Server Cadangan Veeam

 Server Repositori

  • Mesin Maya

◇ CPU: 4 inti 2.3GHz

◇  DRAM: 8GB

◇  Jaringan: jembatan

◇  Disk: disk virtual 50GB

◇  OS: CentOS 7.8.2003

  • Server Baremetal

◇  CPU: Intel Xeon X5650 2.67GHz DUAL

◇  DRAM: 48GB

◇  Jaringan: 2-port 10Gb sfp+ ikatan

◇  Disk: 1TB untuk sistem

◇  OS: CentOS 7.6.1810

Tuan Rumah Hyper-V

◇  CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM: 64GB

◇  Jaringan: penggabungan 2-port 10Gb sfp+

◇  Disk: 1TB untuk sistem

◇  Server Windows 2019

Tuan Rumah VMWare

◇  CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇  DRAM: 64GB

◇  Jaringan: penggabungan 2-port 10Gb sfp+

◇  Disk: 1TB untuk sistem

◇  ESXi 6.5

Jaringan: Sakelar 10GbE

Tanda Acuan pada Berbagai Penyiapan

Untuk menandai acuan kinerja cadangan dari berbagai repositori cadangan, kami menyiapkan tes dengan repositori cadangan yang berbeda dan tiga sumber cadangan.

Sumber cadangan yang kami gunakan untuk tes adalah volume berbasis SSD SATA pada server, VM Windows dari Hyper-V, dan VM CentOS 7 dan VM Windows dari VMWare.

(1) Cadangkan volume pada Drive SSD

Tabel 1. Cadangkan volume dari server dengan SSD SATA.

Ukuran Disk (Data yang diproses)237.9GB
Data Dibaca dari sumber200.1GB
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi69.7GB
Deduplikasi1.3X
Kompresi2.7X


Tabel 2.

Cadangan
Repositori
Durasi
(detik)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Tujuan
(%)
Pemrosesan
Kecepatan (MB/s)
Rata-rata
Tulis Data
Kecepatan (MB/s)
Mesin Virtual Linux,
RBD-replika 3
64683338421554110
Mesin Virtual Linux,
CephFS-replika 3
5219725315564137
Mesin Virtual Linux,
RBD, EC
64582348324554111
Mesin Virtual Linux,
CephFS, EC
5369726274564133
Server Linux,
RBD, EC
5269721163561136

Catatan: Tingkat Tulis Data Rata-rata dihitung dengan membagi Data yang Ditransfer dengan Durasi. Tingkat ini mewakili beban kerja klaster Ceph dalam pekerjaan backup ini.

(2)Backup sebuah VM Windows 10 di Hyper-V pada HDD

Dalam benchmark ini, kami mencadangkan instansi Hyper-V yang disimpan di hard disk SATA. Laju pemrosesan pekerjaan-pekerjaan ini mencapai batas atas bandwidth HDD. Kita juga dapat menemukan bottleneck di sumber karena beban mereka sibuk selama 99% dari durasi pekerjaan. Klaster Ceph, target, beban kerja dari pekerjaan backup Veeam ringan. Klaster Ceph hanya sibuk pada 6% hingga 1% dari waktu kerja.

Dibandingkan dengan benchmark sebelumnya, tingkat pemrosesan dari backup VM jauh lebih rendah dibandingkan dengan backup SSD.Ini terutama karena data VM disimpan di hard drive.

Tabel 3.

Ukuran Disk (HDD)127GB
Data yang Dibaca dari Sumber37.9GB
Data telah ditransfer ke Ceph setelah
Pemadanan dan Kompresi
21,4GB
Deduplikasi3,3X
Kompresi1,8X


Tabel 4. Cadangkan gambar mesin virtual pada HDD SATA3

Cadangan
Repositori
Durasi
(detik)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Tujuan
(%)
Pemrosesan
Kecepatan (MB/s)
Rata-rata
Tulis Data
Kecepatan (MB/s)
Mesin Virtual Linux,
Volume RBD, EC
3639973614560
Mesin Virtual Linux,
Volume CephFS,
EC
3779972114258.1
Server Linux,
Volume RBD, EC
3759962214058.4

Catatan: Tingkat Tulis Data Rata-rata dihitung dengan membagi Data yang Ditransfer dengan Durasi. Tingkat ini mewakili beban kerja klaster Ceph dalam pekerjaan backup ini.

(3)Cadangkan Mesin Virtual pada ESXi di HDD

Uji coba ini mencadangkan mesin virtual CentOS 7 dan Windows 10 yang berjalan pada HDD host VMWare ESXi 6.5 ke repositori yang didukung oleh Ceph RBD dengan perlindungan kode erasure 4+2.

Tabel 5.

SumberMesin Virtual CentOSMesin Virtual Windows 10
Ukuran Disk (HDD)40GB32GB
Data yang Dibaca dari Sumber1.8GB12.9GB
Data telah ditransfer ke Ceph setelah
Pemadanan dan Kompresi
966MB7.7GB
Deduplikasi22.1X2.5X
Kompresi1.9X1.7X


Tabel 6.

Cadangan
Sumber
Durasi
(detik)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Tujuan
(%)
Pemrosesan
Kecepatan (MB/s)
Rata-rata
Tulis Data
Kecepatan (MB/s)
CentOS 7122991050888
Windows 102449911519332

Catatan: Tingkat Tulis Data Rata-rata dihitung dengan membagi Data yang Ditransfer dengan Durasi. Tingkat ini mewakili beban kerja klaster Ceph dalam pekerjaan backup ini.

Kesimpulan

Menurut hasil uji, Ceph RBD dan CephFS memiliki performa yang serupa. Ini sesuai dengan pengalaman kami mengenai benchmark kinerja RBD dan CephFS. Membandingkan karakteristik CephFS dan RBD, keduanya memiliki kelebihan dan kekurangan masing-masing. Jika Anda perlu mendeploy beberapa server repositori, Anda harus membuat gambar RBD untuk setiap server repositori cadangan karena Anda hanya dapat melakukan mount Ceph RBD pada satu host. Dibandingkan dengan CephFS, penggunaan RBD lebih sederhana karena tidak memerlukan server metadata. Kita harus menetapkan ukuran kapasitas RBD saat dibuat, jadi Anda harus mengubah ukurannya saat Anda membutuhkan lebih banyak ruang.

Jika Anda menggunakan CephFS sebagai repositori, Anda harus mendeploy setidaknya satu metadata server (MDS) di dalam klaster Ceph. Kami juga membutuhkan standby metadata server untuk ketersediaan tinggi. Dibandingkan dengan Ceph RBD, Anda tidak perlu memberikan kuota pada sistem file. Jadi, Anda dapat memperlakukan CephFS sebagai kolam penyimpanan yang tidak terbatas.

Dalam demonstrasi kasus penggunaan ini, tes kami hanya mencadangkan satu VM dalam setiap pekerjaan pencadangan. Berdasarkan laporan tes di atas, kami mengetahui bahwa tingkat penulisan data rata-rata terkait dengan tingkat pemrosesan dan efisiensi deduplikasi dan kompresi data. Disk sumber yang lebih cepat mengurangi durasi pekerjaan pencadangan dan menghasilkan tingkat pemrosesan yang lebih cepat. Tergantung pada infrastruktur pengguna, pengguna dapat menerapkan beberapa pekerjaan simultan untuk mencadangkan objek yang berbeda secara bersamaan. Penyimpanan Ceph sangat baik dalam mendukung beberapa pekerjaan simultan.

Sebuah klaster Ceph OSD HDD 20x yang didukung oleh 3x Ambedded Mars 400 dapat menawarkan throughput tulis agregat hingga 700MB/s ke dalam pool kode erasure 4+2. Mendeploy beberapa pekerjaan backup saat ini memberikan manfaat dalam mengurangi durasi backup secara keseluruhan. Kinerja maksimum dari sebuah klaster Ceph hampir proporsional secara linier dengan jumlah total drive disk dalam klaster.

Dalam kasus penggunaan ini, kami tidak menguji menggunakan penyimpanan objek S3 sebagai repositori cadangan. Penyimpanan objek S3 dapat digunakan sebagai tier kapasitas dalam repositori cadangan Veeam Scale-Out dan repositori arsip target untuk pencadangan NAS. Anda dapat dengan mudah mengatur gateway RADOS dan membuat pengguna penyimpanan objek dengan mudah menggunakan manajer UVS Ambedded, antarmuka web manajemen ceph.

Unduh
Gunakan Ceph sebagai repositori untuk white paper Veeam Backup & Replication
Gunakan Ceph sebagai repositori untuk white paper Veeam Backup & Replication

Cara menyiapkan perangkat blok Ceph RBD dan sistem file CephFS sebagai repositori cadangan Veeam untuk mencadangkan mesin virtual dan file

Unduh
Produk Terkait
Aplikasi penyimpanan Ceph Mars 400PRO - Aplikasi Penyimpanan Ceph Mars 400 bagian depan.
Aplikasi penyimpanan Ceph Mars 400PRO
Mars 400PRO

Mars 400 Ceph Appliance dirancang untuk memenuhi kebutuhan penyimpanan data cloud-native dengan kapasitas tinggi. Ini menggunakan HDD untuk mendapatkan...

rincian

Veeam backup dan arsip bekerja dengan Ceph| Solusi penyimpanan Ceph mikroserver ARM | Ambedded

Berlokasi di Taiwan sejak tahun 2013, Ambedded Technology Co., LTD. telah menjadi penyedia solusi penyimpanan blok dan objek. Manajemen penyimpanan data utama mereka meliputi teknologi penyimpanan Ceph, integrasi server ARM, penyimpanan terdefinisi perangkat lunak, optimasi penyimpanan perusahaan, penghematan biaya perangkat Ceph, perangkat lunak manajemen penyimpanan, dan solusi penyimpanan blok dan objek. Mereka menyediakan dukungan Ceph profesional, sistem penyimpanan yang dapat diskalakan dengan efisiensi penyimpanan tinggi di pusat data.

Ambedded menawarkan solusi penyimpanan Ceph terkini pada mikroserver ARM, disesuaikan untuk pembeli B2B yang ingin mengoptimalkan sistem penyimpanan perusahaan mereka. Solusi lengkap kami untuk perangkat Ceph mengurangi total biaya kepemilikan (TCO) dan menyederhanakan manajemen penyimpanan, mendukung penyimpanan blok, sistem file, dan objek dalam platform yang terpadu. Dengan komitmen terhadap inovasi dan dukungan pelanggan, Ambedded adalah mitra terpercaya Anda untuk solusi SUSE Enterprise Storage Appliance yang skalabel dan efisien. Nikmati integrasi yang mulus dan dukungan profesional untuk memanfaatkan potensi penuh teknologi Ceph dalam bisnis Anda.

Ambedded telah menyediakan sistem penyimpanan yang dapat diskalakan dan manajemen penyimpanan Ceph yang hemat biaya kepada pelanggan sejak tahun 2013, dan dengan teknologi canggih dan pengalaman selama 20 tahun, Ambedded memastikan bahwa setiap kebutuhan pelanggan terpenuhi.