Veeam backup dan arsipkan untuk dikerjakan Ceph / Ambedded didirikan pada tahun 2013 dengan tim berbakat yang berpengalaman di ARM perangkat lunak berbasis desain dan pembuatan alat penyimpanan yang ditentukan.

Ambedded Veeam backup dan arsipkan untuk dikerjakan Ceph Pengantar. Ambedded didirikan pada tahun 2013 dengan tim berbakat yang berpengalaman di ARM perangkat lunak berbasis desain dan pembuatan alat penyimpanan yang ditentukan .. Ambedded penawaran Ceph storage solusi pasar, termasuk Ceph storage Appliance di ARM mikroserver dan SUSE Enterprise Storage Alat di ARMserver mikro. Sebagai tambahannya Ceph larutan, Ambedded juga menawarkan komprehensif Ceph dukungan perangkat lunak kepada pelanggan, untuk membantu pengguna yang belum berpengalaman untuk mengadopsi teknologi baru ini tanpa ragu-ragu.

service@ambedded.com.tw

Jam buka: 9 pagi - 6 sore

Mengapa dan Bagaimana Menggunakan
Ceph Storage Appliance sebagai Repositori Veeam Backup & Replikasi

Veeam backup dan arsipkan untuk dikerjakan Ceph

Studi kasus ini menjelaskan cara menggunakan file
Mars 400
ceph storage appliance sebagai repositori cadangan dari backup dan replikasi Veeam.

Ceph mendukung
object storage,
block storage, dan POSIX
file systemsemuanya dalam satu cluster. Menurut persyaratan pencadangan, pelanggan dapat memilih protokol penyimpanan yang berbeda untuk mendukung kebutuhan berbagai strategi pencadangan penyimpanan.


Pada artikel ini, kami menggunakan
Ceph
block storage (
Ceph RBD) dan
Ceph
file system (
Cephfs) sebagai repositori cadangan dan membandingkan durasi pekerjaan pencadangan mereka untuk mencadangkan mesin virtual dari
Hyper-V dan VMWare.


Arsitektur Solusi Cadangan dengan menggunakan Veeam dan Ceph

Arsitektur pencadangan mesin virtual di VMWare dan Hyper-Vmirip. Veeam menggunakan penggerak data untuk mentransfer data dari host sumber ke repositori cadangan. Penggerak data berjalan di server proxy dan server repositori. MenggunakanCeph sebagai penyimpanan backend dari repositori cadangan, Anda dapat memasang RBD atau CephFS di server fisik Linux atau mesin virtual sebagai server repositori. 

Jika proxy dan server repositori adalah mesin virtual di dalam cluster hypervisor, Anda bisa mendapatkan keuntungan dari pengiriman data berkecepatan tinggi tanpa jaringan antara disk VM, server proxy, dan server repositori. Konfigurasi terbaik dari cluster hypervisor besar adalah dengan menerapkan satu VM server proxy dan satu VM server repositori pada setiap host VMWare. Jika tidak, Anda dapat menerapkan satu VM proxy cadangan pada setiap host VMWare dan satu host repositori non-host untuk menghapus beban kerja dari VMWare produksi Anda.

Ada tiga cara untuk menggunakan file Ambedded Ceph alat sebagai repositori untuk Veeam Backup dan Replikasi. CephFSdan RBDblockperangkat dapat digunakan sebagai repositori cadangan lokal. The S3object storage dapat digunakan sebagai tingkat kapasitas untuk lokasi terpencil.

Untuk cara menyiapkan file Ceph RBD block perangkat dan CephFS file system sebagai tempat penyimpanan cadangan Veeam untuk mencadangkan mesin dan file virtual, Anda dapat menemukan detailnya di kertas putih di akhir halaman ini.


Proxy Veeam dan server repositori adalah mesin virtual di dalam cluster hypervisor, dengan penyimpanan ceph Mars 400 untuk menyediakan RBD dan cephfs
cluster hypervisor besar adalah untuk menerapkan satu VM server proxy dan satu VM server repositori pada setiap host VMWare, untuk memiliki data cadangan untuk disimpan ke dalam ceph RBD atau cephfs

Lingkungan Pengujian

CephKluster -

  • Tiga Mars 400 dengan 3x monitors, 20 OSD, dan 1x MDS (server metadata)
  • Setiap Ceph daemon berjalan pada satu inti ganda Arm A72 microserver
  • Sistem Operasi: CentOS 7
  • Ceph perangkat lunak: Nautilus 14.2.9 Arm64
  • Jaringan: jaringan 4x 10 Gb per Mars 400 

Veeam Backup & Replikasi 10, Versi: 10.0.1.4854

Server Cadangan Veeam

  • CPU: Intel Xeon E5-2630 2.3GHz DUAL
  • DRAM: 64 GB
  • Jaringan: 2x 10 Gb sfp + bonding
  • Disk: 1TB untuk sistem, 256GB SATA3 SSD untuk volume
  • Windows Server 2019

 Server Proxy Veeam

  • collocate dengan Veeam Backup Server

 Server Repositori

  • Mesin virtual

◇ CPU: 4 core 2.3GHz

◇ DRAM: 8 GB

◇ Jaringan: jembatan

◇ Disk: Disk virtual 50 GB

◇ OS: CentOS 7.8.2003

  • Server Baremetal

◇ CPU: Intel Xeon X5650 2.67GHz DUAL

◇ DRAM: 48 GB

◇ Jaringan: 2-port 10 Gb sfp + bonding

◇ Disk: 1TB untuk sistem

◇ OS: CentOS 7.6.1810

Hyper-V Tuan rumah

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64 GB

◇   Jaringan: 2-port 10 Gb sfp + bonding

◇   Disk: 1TB untuk sistem

◇   Windows Server 2019

VMWare Host

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64 GB

◇   Jaringan: 2-port 10 Gb sfp + bonding

◇   Disk: 1TB untuk sistem

◇   ESXi 6.5

Jaringan: saklar 10GbE

Tolok ukur pada Berbagai Pengaturan

Untuk mengukur kinerja cadangan berbagai repositori cadangan, kami menyiapkan pengujian dengan repositori cadangan yang berbeda dan tiga sumber cadangan. 

Sumber cadangan yang kami gunakan untuk pengujian adalah volume berbasis SATA SSD di server, VM Windows Hyper-V, dan VM CentOS 7 dan VM Windows dari VMWare.

(1) Cadangkan volume pada Drive SSD

Tabel 1. Cadangkan volume dari server dengan SATA SSD.

Ukuran Disk (Data diproses)237,9 GB
Data Dibaca dari sumbernya200,1 GB
Data Ditransfer ke Ceph setelah Deduplikasi dan Kompresi69,7 GB
Deduplikasi1,3X
Kompresi2,7X


Meja 2.

Repositori Cadangan
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Target
(%)
Kecepatan Pemrosesan
(MB / s)

Kecepatan Tulis Data Rata-rata
(MB / dtk)
VM Linux,
RBD-replika 3
64683338421554110
VM Linux,
CephFS-replica 3
5219725315564137
VM Linux,
RBD, EC
64582348324554111
VM Linux,
CephFS, EC
5369726274564133
Server Linux,
RBD, EC
5269721163561136

Catatan: Tarif Tulis Data Rata-rata dihitung dengan Transfer Data dibagi dengan Durasi. Tarif ini mewakili beban kerjaCeph cluster dalam pekerjaan cadangan ini.

(2) Cadangkan VM Windows 10 Hyper-V  di HDD

Dalam benchmark ini, kami mem-backup file Hyper-VMisalnya yang disimpan pada hard drive SATA. Laju pemrosesan pekerjaan ini mencapai batas atas bandwidth HDD. Kami juga dapat menemukan bottleneck pada sumbernya karena muatannya sibuk selama 99% durasi pekerjaan.Ceph cluster, target, beban kerja dari pekerjaan backup Veeam ringan. Ceph cluster hanya sibuk pada 6% hingga 1% dari waktu kerja.

Dibandingkan dengan tolok ukur sebelumnya, kecepatan pemrosesan cadangan VM jauh lebih rendah daripada cadangan SSD. Ini terutama karena data VM disimpan dalam hard drive. 

Tabel 3.

Ukuran Disk (HDD)127 GB
Data Dibaca dari sumber37,9 GB
Data Ditransfer ke Cephsetelah
Deduplikasi dan Kompresi
21,4 GB
Deduplikasi3,3X
Kompresi1,8X


Tabel 4. Cadangkan mesin virtual image pada SATA3 HDD

Repositori Cadangan
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Target
(%)
Kecepatan Pemrosesan
(MB / s)

Kecepatan Tulis Data Rata-rata
(MB / dtk)
VM Linux,
volume RBD, EC
3639973614560
VM Linux,
CephFSvolume,
EC
3779972114258.1
Server Linux,
volume RBD, EC
3759962214058.4

Catatan: Tarif Tulis Data Rata-rata dihitung dengan Transfer Data dibagi dengan Durasi. Tarif ini mewakili beban kerjaCeph cluster dalam pekerjaan cadangan ini.

(3) Cadangkan Mesin Virtual di ESXi di HDD

Tes ini mencadangkan CentOS 7 dan mesin Virtual Windows 10 yang berjalan pada HDD host VMWare ESXi 6.5 ke repositori yang didukung oleh Ceph RBD dengan 4 + 2 erasure codeperlindungan. 

Tabel 5.

SumberCentOS VMVM Windows 10
Ukuran Disk (HDD)40 GB32 GB
Data Dibaca dari sumber1,8 GB12,9 GB
Data Ditransfer ke Cephsetelah
Deduplikasi dan Kompresi
966MB7,7 GB
Deduplikasi22.1X2.5X
Kompresi1,9X1,7X


Tabel 6.

Sumber Cadangan
Durasi
(dtk)
Sumber
(%)
Proksi
(%)
Jaringan
(%)
Target
(%)
Kecepatan Pemrosesan
(MB / s)

Kecepatan Tulis Data Rata-rata
(MB / dtk)
CentOS 7122991050888
Windows 102449911519332

Catatan: Tarif Tulis Data Rata-rata dihitung dengan Transfer Data dibagi dengan Durasi. Tarif ini mewakili beban kerjaCeph cluster dalam pekerjaan cadangan ini.

Kesimpulan

Menurut hasil tes, Ceph RBD dan CephFSmemiliki performa serupa. Ini memenuhi pengalaman kami tentang tolok ukur RBD danCephFSkinerja. Membandingkan karakteristikCephFSdan RBD, mereka memiliki kelebihan dan kekurangan. Jika Anda perlu menerapkan beberapa server repositori, Anda harus membuat RBDimage untuk setiap server repositori cadangan karena Anda hanya dapat memasang CephRBD pada satu host. Dibandingkan denganCephFS, menggunakan RBD lebih sederhana karena tidak memerlukan server metadata. Kami harus menetapkan ukuran kapasitas RBD saat dibuat, jadi Anda harus mengubah ukuran kapasitasnya saat Anda membutuhkan lebih banyak ruang.

Jika Anda menggunakan CephFS sebagai repositori, Anda harus menerapkan setidaknya satu server metadata (MDS) di Cephgugus. Kami juga membutuhkan server metadata siaga untuk ketersediaan tinggi. Dibandingkan denganCeph RBD, Anda tidak perlu memberikan file file systemsebuah kuota. Jadi, Anda bisa mengobatinyaCephFS sebagai penyimpanan tak terbatas pool.

Dalam demonstrasi kasus penggunaan ini, pengujian kami hanya mencadangkan satu VM di setiap pekerjaan pencadangan. Berdasarkan laporan pengujian di atas, kami mengetahui rata-rata kecepatan penulisan data terkait dengan kecepatan pemrosesan dan deduplikasi data serta efisiensi kompresi. Disk sumber yang lebih cepat mengurangi durasi pekerjaan pencadangan dan menghasilkan kecepatan pemrosesan yang lebih cepat. Bergantung pada infrastruktur pengguna, pengguna dapat menerapkan beberapa pekerjaan bersamaan untuk mencadangkan objek yang berbeda secara bersamaan.Ceph storage berkinerja sangat baik dalam mendukung beberapa pekerjaan bersamaan. 

OSD HDD 20x Ceph cluster didukung oleh 3x Ambedded Mars 400 dapat menawarkan hingga 700MB / dtk agregat penulisan throughput ke 4 + 2 erasure code pool. Menerapkan beberapa pekerjaan pencadangan saat ini mendapatkan keuntungan dari pengurangan durasi pencadangan secara keseluruhan. Performa maksimal aCeph cluster hampir berbanding lurus dengan jumlah total disk drive di cluster.

Dalam kasus penggunaan ini, kami tidak menguji menggunakan S3 object storagesebagai tempat penyimpanan cadangan. S3object storagedapat digunakan sebagai tingkat kapasitas di repositori cadangan Veeam Scale-Out dan repositori arsip target untuk cadangan NAS. Anda dapat dengan mudah mengatur gateway RADOS dan membuatnyaobject storage pengguna dengan mudah menggunakan Ambedded UVS manager, itu ceph web manajemen GUI.

Unduh
Menggunakan
Ceph sebagai tempat penyimpanan kertas putih Pencadangan & Replikasi Veeam
Menggunakan Ceph sebagai tempat penyimpanan kertas putih Pencadangan & Replikasi Veeam

Cara menyiapkan Ceph RBD block perangkat dan CephFS file system sebagai tempat penyimpanan cadangan Veeam untuk membuat cadangan mesin...

Download
Produk-produk terkait
Ceph Storage Appliance - Ceph Storage Appliance
Mars 400 depan.
Ceph Storage Appliance
Mars 400

Mars 400 Ceph Storage Applianceadalah solusi penyimpanan yang ditentukan perangkat lunak turn-key untuk perusahaan dan pusat data. Alat terintegrasi...

Detail
Mars 400SES
SUSE Enterprise Storage Alat - Mars 400SES
SUSE Enterprise Storage 6 (Nautilus) Peralatan.
Mars 400SES SUSE Enterprise Storage Alat
Mars 400SES

Mars400SES SUSE Enterprise Storage Alat terdiri dari ARM microserver perangkat keras, 3 tahun SUSE Enterprise Storage & SUSE Langganan...

Detail

Ambedded Veeam backup dan arsipkan untuk dikerjakan Ceph pengantar

Ambedded Technology Co., LTD. adalah pemasok dan produsen Taiwan di penyedia penyimpanan dan komputasi awan terdistribusi. Ambedded telah menawarkan pelanggan kami dengan kualitas tinggi Ceph gugus, Ceph storage appliance, SUSE Enterprise Storage, ARM Penyimpanan, Penyimpanan Kubernetes, Penyimpanan yang Ditentukan Perangkat Lunak, ARM server, SUSE 3 tahun Langganan, Penyimpanan terdistribusi aktif ARM, Mulailah ceph cluster dalam sasis 3x 1U sejak 2013. Dengan teknologi canggih dan pengalaman 20 tahun, Ambedded selalu pastikan untuk memenuhi permintaan setiap pelanggan.