Cadangan dan arsip Veeam untuk digunakan Ceph / Ceph storage appliance mengintegrasikan tumpukan perangkat lunak yang disetel dan dirancang untuk tujuan Arm server menawarkan kinerja luar biasa, keandalan, UI web, dan pengurangan TCO.

Studi kasus ini menjelaskan bagaimana menggunakan Mars 400 ceph storage appliance sebagai repositori cadangan dari pencadangan dan replikasi Veeam. Ceph mendukung object storage, block storage, dan POSIX file systemsemua dalam satu cluster. Menurut persyaratan pencadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi pencadangan penyimpanan. Dalam artikel ini, kami menggunakan Ceph block storage ( Ceph RBD) dan Ceph file system ( Cephfs) sebagai repositori cadangan dan bandingkan durasi pekerjaan pencadangannya untuk mencadangkan mesin virtual dari Hyper-Vdan VMWare. Dengan lebih dari 20 tahun pengalaman Penyimpanan yang Ditentukan Perangkat Lunak, Ambedded dengan tim berbakat yang berpengalaman dalam ARM perangkat lunak berbasis perangkat lunak yang ditentukan desain dan pembuatan alat penyimpanan.

service@ambedded.com.tw

Jam buka: 9 pagi - 6 sore

Mengapa dan Bagaimana Menggunakannya 
    Ceph Storage Appliance sebagai Repositori Cadangan & Replikasi Veeam

Cadangan dan arsip Veeam untuk digunakan Ceph

Studi kasus ini menjelaskan bagaimana menggunakan
Mars 400
ceph storage appliance sebagai repositori cadangan dari pencadangan dan replikasi Veeam.

Ceph mendukung
object storage,
block storage, dan POSIX
file systemsemua dalam satu cluster. Menurut persyaratan pencadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi pencadangan penyimpanan.


Dalam artikel ini, kami menggunakan
Ceph
block storage (
Ceph RBD) dan
Ceph
file system (
Cephfs) sebagai repositori cadangan dan bandingkan durasi pekerjaan pencadangannya untuk mencadangkan mesin virtual dari
Hyper-V dan VMWare.


Arsitektur Solusi Cadangan dengan menggunakan Veeam dan Ceph

Arsitektur mencadangkan mesin virtual di VMWare dan Hyper-Vmirip. Veeam menggunakan penggerak data untuk mentransfer data dari host sumber ke repositori cadangan. Penggerak data berjalan di server proxy dan server repositori. MenggunakanCeph sebagai penyimpanan backend dari repositori cadangan, Anda dapat memasang RBD atau CephFS pada server fisik Linux atau mesin virtual sebagai server repositori. 

Jika proxy dan server repositori adalah mesin virtual di dalam cluster hypervisor, Anda bisa mendapatkan manfaat dari transportasi data berkecepatan tinggi bebas jaringan antara disk VM, server proxy, dan server repositori. Konfigurasi terbaik dari cluster hypervisor besar adalah dengan menyebarkan satu VM server proxy dan satu VM server repositori di setiap host VMWare. Jika tidak, Anda dapat menerapkan satu VM proxy cadangan di setiap host VMWare dan satu host repositori di luar host untuk menghapus beban kerja dari VMWare produksi Anda.

Ada tiga cara untuk menggunakan Ambedded Ceph alat sebagai repositori untuk Veeam Backup and Replication. CephFSdan RBDblockperangkat dapat digunakan sebagai repositori cadangan lokal. The S3object storage dapat digunakan sebagai tingkat kapasitas untuk lokasi terpencil.

Untuk cara mengatur Ceph RBD block perangkat dan CephFS file system sebagai repositori cadangan Veeam untuk mencadangkan mesin dan file virtual, Anda dapat menemukan detailnya di buku putih di akhir halaman ini.


Proksi Veeam dan server repositori adalah mesin virtual di dalam cluster hypervisor, dengan penyimpanan ceph Mars 400 untuk menyediakan RBD dan cephfs
cluster hypervisor besar adalah untuk menyebarkan satu server proxy VM dan satu server repositori VM pada setiap host VMWare, untuk memiliki data cadangan untuk disimpan ke ceph RBD atau cephfs

Lingkungan Pengujian

CephGugus -

  • Tiga Mars 400 dengan 3x monitors, 20 OSD, dan 1x MDS (server metadata)
  • Setiap Ceph daemon berjalan pada satu inti ganda Arm A72 microserver
  • Sistem Operasi: CentOS 7
  • Ceph perangkat lunak: Nautilus 14.2.9 Arm64
  • Jaringan: jaringan 4x 10 Gb per Mars 400 

Cadangan & Replikasi Veeam 10, Versi: 10.0.1.4854

Server Cadangan Veeam

  • CPU: Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM: 64GB
  • Jaringan: 2x 10Gb sfp+ bonding
  • Disk: 1TB untuk sistem, 256GB SATA3 SSD untuk volume
  • Windows Server 2019

 Server Proksi Veeam

  • kolokasi dengan Server Cadangan Veeam

 Server Repositori

  • Mesin virtual

CPU: 4 core 2.3GHz

DRAM: 8GB

Jaringan: jembatan

Disk: disk virtual 50GB

OS: CentOS 7.8.2003

  • Server Baremetal

CPU: Intel Xeon X5650 2.67GHz DUAL

DRAM: 48GB

Jaringan: 2-port 10Gb sfp+ bonding

Disk: 1TB untuk sistem

OS: CentOS 7.6.1810

Hyper-V Tuan rumah

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64GB

◇   Jaringan: 2-port 10GB sfp + ikatan

◇   Disk: 1TB untuk sistem

◇   Windows Server 2019

VMWare Host

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64GB

◇   Jaringan: 2-port 10GB sfp + ikatan

◇   Disk: 1TB untuk sistem

◇   ESXi 6.5

Jaringan: sakelar 10GbE

Tolok Ukur pada Berbagai Pengaturan

Untuk membandingkan kinerja pencadangan berbagai repositori cadangan, kami menyiapkan pengujian dengan berbagai repositori cadangan dan tiga sumber cadangan. 

Sumber cadangan yang kami gunakan untuk pengujian adalah volume berbasis SSD SATA di server, VM Windows dari Hyper-V, dan VM CentOS 7 dan VM Windows dari VMWare.

(1) Cadangkan volume pada Drive SSD

Tabel 1. Mencadangkan volume dari server dengan SSD SATA.

Ukuran Disk (Data diproses) 237.9 GB
Data Baca dari sumbernya 200.1 GB
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi 69.7 GB
Deduplikasi 1.3X
Kompresi 2,7X


Meja 2.

Cadangan
Repositori
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Sasaran
(%)
Kecepatan Pemrosesan
(MB/dtk)
Rata-rata
Kecepatan Tulis Data
(MB/dtk)
Linux VM,
replika RBD 3
646 83 33 84 21 554 110
VM Linux,
CephFS-replika 3
521 97 25 31 5 564 137
Linux VM,
RBD, EC
645 82 34 83 24 554 111
VM Linux,
CephFS, EC
536 97 26 27 4 564 133
Server Linux,
RBD, EC
526 97 21 16 3 561 136

Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerjaCeph cluster dalam pekerjaan cadangan ini.

(2) Cadangkan Windows 10 VM di Hyper-V  di HDD

Dalam benchmark ini, kami mencadangkan a Hyper-Vcontoh yang disimpan pada hard drive SATA. Tingkat pemrosesan pekerjaan ini mencapai batas atas bandwidth HDD. Kami juga dapat menemukan hambatan pada sumbernya karena beban mereka sibuk selama 99% dari durasi pekerjaan.Ceph cluster, target, beban kerja dari pekerjaan cadangan Veeam ringan. Ceph cluster hanya sibuk pada 6% hingga 1% dari waktu kerja.

Dibandingkan dengan tolok ukur sebelumnya, tingkat pemrosesan cadangan VM jauh lebih rendah daripada cadangan SSD. Ini terutama karena data VM disimpan dalam hard drive. 

Tabel 3.

Ukuran Disk (HDD) 127GB
Data Baca dari sumber 37.9 GB
Data Ditransfer ke Cephsetelah
Deduplikasi dan Kompresi
21.4GB
Deduplikasi 3.3X
Kompresi 1.8X


Tabel 4. Mencadangkan mesin virtual image pada HDD SATA3

Cadangan
Repositori
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Sasaran
(%)
Kecepatan Pemrosesan
(MB/dtk)
Rata-rata
Kecepatan Tulis Data
(MB/dtk)
Linux VM,
volume RBD, EC
363 99 7 3 6 145 60
VM Linux,
CephFSvolume,
EC
377 99 7 2 1 142 58.1
Server Linux,
volume RBD, EC
375 99 6 2 2 140 58.4

Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerjaCeph cluster dalam pekerjaan cadangan ini.

(3) Backup Mesin Virtual pada ESXi pada HDD

Tes ini mencadangkan mesin Virtual CentOS 7 dan Windows 10 yang berjalan pada HDD host VMWare ESXi 6.5 ke repositori yang didukung oleh Ceph RBD dengan 4+2 erasure codeperlindungan. 

Tabel 5.

Sumber CentOS VM Windows 10 VM
Ukuran Disk (HDD) 40GB 32GB
Data Baca dari sumber 1,8 GB 12.9GB
Data Ditransfer ke Cephsetelah
Deduplikasi dan Kompresi
966MB 7.7GB
Deduplikasi 22.1X 2.5X
Kompresi 1.9X 1.7X


Tabel 6.

Sumber Cadangan
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Sasaran
(%)
Kecepatan Pemrosesan
(MB/dtk)
Rata-rata
Kecepatan Tulis Data
(MB/dtk)
CentOS 7 122 99 10 5 0 88 8
Windows 10 244 99 11 5 1 93 32

Catatan: Rata-rata Tarif Tulis Data dihitung berdasarkan Data yang Ditransfer dibagi Durasi. Tarif ini mewakili beban kerjaCeph cluster dalam pekerjaan cadangan ini.

Kesimpulan

Menurut hasil tes, Ceph RBD dan CephFSmemiliki kinerja yang serupa. Ini memenuhi pengalaman kami mengenai tolok ukur RBD danCephFSkinerja. Membandingkan karakteristikCephFSdan RBD, mereka memiliki kelebihan dan kekurangan. Jika Anda perlu menggunakan beberapa server repositori, Anda harus membuat RBDimage untuk setiap server repositori cadangan karena Anda hanya dapat memasang CephRBD pada satu host. Dibandingkan denganCephFS, menggunakan RBD lebih sederhana karena tidak memerlukan server metadata. Kami harus menetapkan ukuran kapasitas RBD saat dibuat, jadi Anda harus mengubah ukuran kapasitasnya saat Anda membutuhkan lebih banyak ruang.

Jika Anda menggunakan CephFS sebagai repositori, Anda harus menerapkan setidaknya satu server metadata (MDS) di Cephgugus. Kami juga membutuhkan server metadata siaga untuk ketersediaan tinggi. Dibandingkan denganCeph RBD, Anda tidak perlu memberikan file systemsebuah kuota. Jadi, Anda bisa mengobatinyaCephFS sebagai penyimpanan tak terbatas pool.

Dalam demonstrasi kasus penggunaan ini, pengujian kami hanya mencadangkan satu VM di setiap tugas pencadangan. Menurut laporan pengujian di atas, kita mengetahui bahwa kecepatan penulisan data rata-rata terkait dengan kecepatan pemrosesan dan deduplikasi data serta efisiensi kompresi. Disk sumber yang lebih cepat mengurangi durasi pekerjaan pencadangan dan menghasilkan tingkat pemrosesan yang lebih cepat. Bergantung pada infrastruktur pengguna, pengguna dapat menggunakan beberapa pekerjaan bersamaan untuk mencadangkan objek yang berbeda secara bersamaan.Ceph storage berkinerja sangat baik dalam mendukung beberapa pekerjaan bersamaan. 

Sebuah 20x HDD OSD Ceph cluster didukung oleh 3x Ambedded Mars 400 dapat menawarkan hingga 700MB/s agregat penulisan throughput ke 4+2 erasure code pool. Menyebarkan beberapa pekerjaan pencadangan saat ini mendapat manfaat dari pengurangan durasi pencadangan secara keseluruhan. Performa maksimal aCeph cluster hampir berbanding lurus dengan jumlah total disk drive di cluster.

Dalam kasus penggunaan ini, kami tidak menguji menggunakan S3 object storagesebagai tempat penyimpanan cadangan. S3object storagedapat digunakan sebagai tingkat kapasitas di repositori cadangan Veeam Scale-Out dan repositori arsip target untuk cadangan NAS. Anda dapat dengan mudah mengatur gateway RADOS dan membuatobject storage pengguna dengan mudah menggunakan Ambedded UVS manager, itu ceph web manajemen GUI.

Unduh
Menggunakan 
    Ceph sebagai repositori untuk kertas putih Cadangan & Replikasi Veeam
Menggunakan Ceph sebagai repositori untuk kertas putih Cadangan & Replikasi Veeam

Cara mengatur Ceph RBD block perangkat dan CephFS file system sebagai repositori cadangan Veeam untuk mencadangkan mesin dan file virtual

Download
Produk-produk terkait
Ceph Storage Appliance - Ceph Storage Appliance 
    Mars 400 depan.
Ceph Storage Appliance
Mars 400

bersatu Cephperangkat penyimpanan yang ditentukan perangkat lunak berbasis. Kami Ceph peralatan mengintegrasikan yang disetel Ceph perangkat...

Detail
Mars 400SES 
    SUSE Enterprise Storage Alat - Mars 400SES 
    SUSE Enterprise Storage 6 (Nautilus) Alat.
Mars 400SES SUSE Enterprise Storage Alat
Mars 400SES

Mars400SES SUSE Enterprise Storage Alat terdiri dari ARM microserver perangkat keras, 3 tahun SUSE Enterprise Storage & SUSE Langganan...

Detail

Ambedded - Seorang profesional Ceph storage solusi ke pasar.

Terletak di Taiwan sejak 2013, Ambedded Technology Co., LTD. adalah Ceph storage penyedia solusi yang menawarkan ARM perangkat lunak berbasis perangkat penyimpanan yang ditentukan dengan penghematan CapEX 60%, konsumsi daya 70% lebih sedikit, dan keuntungan skala 100%.

Untuk perancangan dan pembuatan penyimpanan yang ditentukan Perangkat Lunak, Ambedded tim memiliki pengalaman luas untuk membantu pelanggan mengadopsi to ceph solusi ke dalam industri serbaguna, seperti Telecom, medis, militer, edge datacenter dan HA membutuhkan penyimpanan perusahaan.

Ambedded telah menawarkan pelanggan Ceph storage solusi sejak 2013, baik teknologi canggih dan 20 tahun pengalaman, Ambedded memastikan setiap permintaan pelanggan terpenuhi.