
สำรองข้อมูลและเก็บถาวรเพื่อใช้งานกับ Ceph
กรณีศึกษานี้อธิบายวิธีใช้อุปกรณ์จัดเก็บข้อมูล Mars 400 ceph เป็นที่เก็บข้อมูลสำรองของการสำรองและการจำลองแบบ Veeam
Ceph รองรับการจัดเก็บอ็อบเจ็กต์ พื้นที่เก็บข้อมูลบล็อก และระบบไฟล์ POSIX ทั้งหมดในคลัสเตอร์เดียว ตามข้อกำหนดในการสำรองข้อมูล ลูกค้าสามารถเลือกโปรโตคอลการจัดเก็บข้อมูลที่แตกต่างกัน เพื่อรองรับความต้องการของกลยุทธ์การสำรองข้อมูลพื้นที่จัดเก็บข้อมูลต่างๆ
ในบทความนี้ เราใช้ Ceph block storage (Ceph RBD) และระบบไฟล์ Ceph (Cephfs) เป็นที่เก็บข้อมูลสำรอง และเปรียบเทียบระยะเวลางานสำรองข้อมูลของการสำรองข้อมูลเครื่องเสมือนจาก Hyper-V และ VMWare
สถาปัตยกรรมโซลูชันสำรองโดยใช้ Veeam และ Ceph
สถาปัตยกรรมของการสำรองข้อมูลเครื่องเสมือนบน VMWare และ Hyper-V มีความคล้ายคลึงกัน Veeam ใช้ตัวย้ายข้อมูลเพื่อถ่ายโอนข้อมูลจากโฮสต์ต้นทางไปยังที่เก็บข้อมูลสำรอง ตัวย้ายข้อมูลทำงานบนพร็อกซีเซิร์ฟเวอร์และเซิร์ฟเวอร์ที่เก็บ หากต้องการใช้ Ceph เป็นที่เก็บข้อมูลแบ็กเอนด์ของที่เก็บสำรอง คุณสามารถเมาต์ RBD หรือ CephFS บนเซิร์ฟเวอร์จริงของ Linux หรือเครื่องเสมือนเป็นเซิร์ฟเวอร์ที่เก็บได้
หากพร็อกซีและเซิร์ฟเวอร์ที่เก็บเป็นเครื่องเสมือนภายในคลัสเตอร์ไฮเปอร์ไวเซอร์ คุณจะได้รับประโยชน์จากการขนส่งข้อมูลความเร็วสูงแบบไม่มีเครือข่ายระหว่างดิสก์ VM พร็อกซีเซิร์ฟเวอร์ และเซิร์ฟเวอร์ที่เก็บ การกำหนดค่าที่ดีที่สุดของคลัสเตอร์ไฮเปอร์ไวเซอร์ขนาดใหญ่คือการปรับใช้หนึ่งพร็อกซีเซิร์ฟเวอร์ VM และหนึ่งเซิร์ฟเวอร์ที่เก็บ VM บนแต่ละโฮสต์ VMWare มิฉะนั้น คุณสามารถปรับใช้ VM สำรองหนึ่งพร็อกซีบนทุกโฮสต์ VMWare และหนึ่งโฮสต์ที่เก็บนอกโฮสต์เพื่อลบเวิร์กโหลดออกจาก VMWare ที่ใช้งานจริงของคุณ
มีสามวิธีในการใช้อุปกรณ์ Ambedded Ceph เป็นที่เก็บข้อมูลสำหรับ Veeam Backup and Replication อุปกรณ์บล็อก CephFSและRBDสามารถใช้เป็นที่เก็บข้อมูลสำรองภายในองค์กรได้ พื้นที่จัดเก็บอ็อบเจ็กต์ S3สามารถใช้เป็นระดับความจุสำหรับตำแหน่งระยะไกลได้
สำหรับวิธีตั้งค่าอุปกรณ์บล็อก Ceph RBD และระบบไฟล์ CephFS เป็นที่เก็บข้อมูลสำรองของ Veeam สำหรับการสำรองเครื่องเสมือนและไฟล์ ดูรายละเอียดได้ในเอกสารไวท์เปเปอร์ที่ส่วนท้ายของหน้านี้
สภาพแวดล้อมการทดสอบ
คลัสเตอร์เซ็ฟ
- Mars 400 สามเครื่องพร้อมจอภาพ 3x, 20 OSD และ 1x MDS (เซิร์ฟเวอร์ข้อมูลเมตา)
- Ceph daemon แต่ละตัวทำงานบนไมโครเซิร์ฟเวอร์ Arm A72 แบบดูอัลคอร์หนึ่งตัว
- ระบบปฏิบัติการ: CentOS 7
- ซอฟต์แวร์ Ceph: Nautilus 14.2.9 Arm64
- เครือข่าย: เครือข่าย 4x 10Gb ต่อ Mars 400
Veeam Backup & Replication 10 เวอร์ชัน: 10.0.1.4854
เซิร์ฟเวอร์สำรอง Veeam
- ซีพียู: Intel Xeon E5-2630 2.3GHz DUAL
- DRAM: 64GB
- เครือข่าย: 2x 10Gb sfp+ พันธะ
- ดิสก์: 1TB สำหรับระบบ, 256GB SATA3 SSD สำหรับโวลุ่ม
- Windows Server 2019
พร็อกซีเซิร์ฟเวอร์ Veeam
- ทำงานร่วมกับ Veeam Backup Server
เซิร์ฟเวอร์ที่เก็บ
- เครื่องเสมือน
◇ CPU: 4 คอร์ 2.3GHz
◇ DRAM: 8GB
◇เครือข่าย: สะพาน
◇ ดิสก์: ดิสก์เสมือน 50GB
◇ระบบปฏิบัติการ: CentOS 7.8.2003
- เซิร์ฟเวอร์ Baremetal
◇ CPU: Intel Xeon X5650 2.67GHz DUAL
◇ DRAM: 48GB
◇เครือข่าย: 2-port 10Gb sfp+ bonding
◇ ดิสก์: 1TB สำหรับระบบ
◇ระบบปฏิบัติการ: CentOS 7.6.1810
โฮสต์ Hyper-V
◇ CPU: Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM: 64GB
◇ เครือข่าย: 2-port 10Gb sfp+ bonding
◇ ดิสก์: 1TB สำหรับระบบ
◇ Windows Server 2019
VMWare Host
◇ CPU: Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM: 64GB
◇ เครือข่าย: 2-port 10Gb sfp+ bonding
◇ ดิสก์: 1TB สำหรับระบบ
◇ ESXi 6.5
เครือข่าย: สวิตช์ 10GbE
เกณฑ์มาตรฐานในการตั้งค่าต่างๆ
เพื่อเปรียบเทียบประสิทธิภาพการสำรองข้อมูลของที่เก็บข้อมูลสำรองต่างๆ เราได้ตั้งค่าการทดสอบกับที่เก็บข้อมูลสำรองที่แตกต่างกันและแหล่งสำรองข้อมูลสามแหล่ง
แหล่งสำรองข้อมูลที่เราใช้สำหรับการทดสอบคือโวลุ่มที่ใช้ SATA SSD บนเซิร์ฟเวอร์, Windows VM ของ Hyper-V และ CentOS 7 VM และ Windows VM ของ VMWare
(1)สำรองโวลุ่มบนไดรฟ์ SSD
ตารางที่ 1. สำรองข้อมูลโวลุ่มจากเซิร์ฟเวอร์ด้วย SATA SSD
ขนาดดิสก์ (ประมวลผลข้อมูล) | 237.9GB |
อ่านข้อมูลจากต้นทาง | 200.1GB |
ข้อมูลที่ถ่ายโอนไปยัง Ceph หลังจากการขจัดข้อมูลซ้ำซ้อนและการบีบอัด | 69.7GB |
การขจัดข้อมูลซ้ำซ้อน | 1.3X |
การบีบอัด | 2.7X |
ตารางที่ 2
ที่เก็บข้อมูลสำรอง | ระยะเวลา (วินาที) | แหล่งที่มา (%) | พร็อกซี่ (%) | เครือข่าย (%) | เป้าหมาย (%) | อัตรา การประมวลผล (MB/s) | อัตรา การเขียนข้อมูล เฉลี่ย (MB/s) |
Linux VM, RBD-replica 3 | 646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM, CephFS-replica 3 | 521 | 97 | 25 | 31 | 5 | 564 | 137 |
Linux VM, RBD, EC | 645 | 82 | 34 | 83 | 24 | 554 | 111 |
Linux VM, CephFS, EC | 536 | 97 | 26 | 27 | 4 | 564 | 133 |
เซิร์ฟเวอร์ Linux, RBD, EC | 526 | 97 | 21 | 16 | 3 | 561 | 136 |
หมายเหตุ: อัตราการเขียนข้อมูลเฉลี่ยคำนวณโดย Data Transferred หารด้วย Duration อัตราเหล่านี้แสดงถึงปริมาณงานของคลัสเตอร์ Ceph ในงานสำรองข้อมูลเหล่านี้
(2)สำรองข้อมูล Windows 10 VM บน Hyper-V บน HDD
ในเกณฑ์มาตรฐานนี้ เราสำรองข้อมูลอินสแตนซ์ Hyper-V ที่จัดเก็บไว้ในฮาร์ดไดรฟ์ SATA อัตราการประมวลผลของงานเหล่านี้ถึงขีดจำกัดสูงสุดของแบนด์วิดท์ HDD นอกจากนี้เรายังสามารถหาคอขวดที่ต้นทางได้เนื่องจากภาระงานของพวกเขาไม่ว่างในช่วง 99% ของระยะเวลางาน คลัสเตอร์ Ceph เป้าหมาย ปริมาณงานจากงานสำรองข้อมูล Veeam นั้นเบา คลัสเตอร์ Ceph ไม่ว่างเพียง 6% ถึง 1% ของเวลาทำงาน
เมื่อเทียบกับเกณฑ์มาตรฐานก่อนหน้า อัตราการประมวลผลของการสำรองข้อมูล VM นั้นต่ำกว่าการสำรองข้อมูล SSD มาก สาเหตุหลักมาจากข้อมูล VM ถูกเก็บไว้ในฮาร์ดไดรฟ์
ตารางที่ 3
ขนาดดิสก์ (HDD) | 127GB |
อ่านข้อมูลจากแหล่งที่มา | 37.9GB |
ข้อมูลที่ถ่ายโอนไปยัง Ceph หลังจาก การขจัดข้อมูล ซ้ำซ้อนและการบีบอัด | 21.4GB |
การขจัดข้อมูลซ้ำซ้อน | 3.3X |
การบีบอัด | 1.8X |
ตารางที่ 4. สำรองอิมเมจเครื่องเสมือนบน SATA3 HDD
ที่เก็บข้อมูลสำรอง | ระยะเวลา (วินาที) | แหล่งที่มา (%) | พร็อกซี่ (%) | เครือข่าย (%) | เป้าหมาย (%) | อัตรา การประมวลผล (MB/s) | อัตรา การเขียนข้อมูล เฉลี่ย (MB/s) |
Linux VM, โวลุ่ม RBD, EC | 363 | 99 | 7 | 3 | 6 | 145 | 60 |
Linux VM, โวลุ่ม CephFS, EC | 377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
เซิร์ฟเวอร์ Linux, โวลุ่ม RBD, EC | 375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
หมายเหตุ: อัตราการเขียนข้อมูลเฉลี่ยคำนวณโดย Data Transferred หารด้วย Duration อัตราเหล่านี้แสดงถึงปริมาณงานของคลัสเตอร์ Ceph ในงานสำรองข้อมูลเหล่านี้
(3)สำรองข้อมูล Virtual Machines บน ESXi บน HDD
การทดสอบนี้เป็นการสำรอง CentOS 7 และเครื่องเสมือน Windows 10 ที่ทำงานบน HDD ของโฮสต์ VMWare ESXi 6.5 ไปยังที่เก็บที่ได้รับการสนับสนุนโดย Ceph RBD พร้อมการป้องกันรหัสการลบ 4+2
ตารางที่ 5.
แหล่งที่มา | CentOS VM | Windows 10 VM |
ขนาดดิสก์ (HDD) | 40GB | 32GB |
อ่านข้อมูลจากแหล่งที่มา | 1.8GB | 12.9GB |
ข้อมูลที่ถ่ายโอนไปยัง Ceph หลังจาก การขจัดข้อมูล ซ้ำซ้อนและการบีบอัด | 966MB | 7.7GB |
การขจัดข้อมูลซ้ำซ้อน | 22.1X | 2.5X |
การบีบอัด | 1.9X | 1.7X |
ตารางที่ 6
แหล่งสำรอง | ระยะเวลา (วินาที) | แหล่งที่มา (%) | พร็อกซี่ (%) | เครือข่าย (%) | เป้าหมาย (%) | อัตรา การประมวลผล (MB/s) | อัตรา การเขียนข้อมูล เฉลี่ย (MB/s) |
CentOS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
Windows 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
หมายเหตุ: อัตราการเขียนข้อมูลเฉลี่ยคำนวณโดย Data Transferred หารด้วย Duration อัตราเหล่านี้แสดงถึงปริมาณงานของคลัสเตอร์ Ceph ในงานสำรองข้อมูลเหล่านี้
บทสรุป
จากผลการทดสอบ Ceph RBD และ CephFS มีประสิทธิภาพใกล้เคียงกัน เป็นไปตามประสบการณ์ของเราเกี่ยวกับเกณฑ์มาตรฐานของประสิทธิภาพ RBD และ CephFS การเปรียบเทียบคุณสมบัติของ CephFS และ RBD นั้นมีข้อดีและข้อเสีย หากคุณต้องการปรับใช้เซิร์ฟเวอร์ที่เก็บหลายตัว คุณต้องสร้างอิมเมจ RBD สำหรับแต่ละเซิร์ฟเวอร์ที่เก็บข้อมูลสำรอง เนื่องจากคุณสามารถเมานต์ Ceph RBD บนโฮสต์เดียวเท่านั้น เมื่อเทียบกับ CephFS การใช้ RBD นั้นง่ายกว่าเพราะไม่ต้องการเซิร์ฟเวอร์ข้อมูลเมตา เราต้องกำหนดขนาดความจุ RBD เมื่อสร้าง ดังนั้นคุณต้องปรับขนาดความจุเมื่อคุณต้องการพื้นที่เพิ่ม
หากคุณใช้ CephFS เป็นที่เก็บ คุณต้องปรับใช้เซิร์ฟเวอร์ข้อมูลเมตา (MDS) อย่างน้อยหนึ่งเซิร์ฟเวอร์ในคลัสเตอร์ Ceph นอกจากนี้เรายังต้องการเซิร์ฟเวอร์ข้อมูลเมตาสแตนด์บายสำหรับความพร้อมใช้งานสูง เมื่อเทียบกับ Ceph RBD คุณไม่จำเป็นต้องให้โควต้าระบบไฟล์ ดังนั้น คุณสามารถถือว่า CephFS เป็นพูลพื้นที่เก็บข้อมูลไม่จำกัด
ในการสาธิตการใช้งานนี้ การทดสอบของเราสำรองข้อมูล VM เพียงตัวเดียวในแต่ละงานสำรองข้อมูล จากรายงานการทดสอบข้างต้น เราทราบดีว่าอัตราการเขียนข้อมูลโดยเฉลี่ยนั้นสัมพันธ์กับอัตราการประมวลผลและการขจัดข้อมูลซ้ำซ้อนและประสิทธิภาพการบีบอัด ดิสก์ต้นทางที่เร็วกว่าช่วยลดระยะเวลาของงานสำรองข้อมูลและส่งผลให้อัตราการประมวลผลเร็วขึ้น ขึ้นอยู่กับโครงสร้างพื้นฐานของผู้ใช้ ผู้ใช้สามารถปรับใช้งานหลายงานพร้อมกันเพื่อสำรองข้อมูลอ็อบเจ็กต์ต่างๆ พร้อมกันได้ ที่เก็บข้อมูล Ceph ทำงานได้ดีมากในการสนับสนุนงานหลายงานพร้อมกัน
คลัสเตอร์ HDD OSD Ceph 20x ที่ขับเคลื่อนโดย 3x Ambedded Mars 400 สามารถให้ปริมาณงานการเขียนรวมสูงถึง 700MB/s ไปยังพูลโค้ดการลบ 4+2 การปรับใช้งานสำรองข้อมูลปัจจุบันหลายงานจะได้รับประโยชน์จากการลดระยะเวลาการสำรองข้อมูลโดยรวม ประสิทธิภาพสูงสุดของคลัสเตอร์ Ceph เกือบจะเป็นสัดส่วนเชิงเส้นกับจำนวนดิสก์ไดรฟ์ทั้งหมดในคลัสเตอร์
ในกรณีการใช้งานนี้ เราไม่ได้ทดสอบโดยใช้พื้นที่จัดเก็บอ็อบเจ็กต์ S3 เป็นที่เก็บข้อมูลสำรอง พื้นที่จัดเก็บอ็อบเจ็กต์ S3 สามารถใช้เป็นระดับความจุในที่เก็บข้อมูลสำรอง Veeam Scale-Out และที่เก็บถาวรเป้าหมายสำหรับการสำรองข้อมูล NAS คุณสามารถตั้งค่าเกตเวย์ RADOS และสร้างผู้ใช้พื้นที่จัดเก็บอ็อบเจ็กต์ได้อย่างง่ายดายโดยใช้ตัวจัดการ Ambedded UVS ซึ่งเป็นเว็บ GUI สำหรับการจัดการ ceph
- ดาวน์โหลด
ใช้ Ceph เป็นที่เก็บข้อมูลสำหรับเอกสารทางเทคนิค Veeam Backup & Replication
วิธีการตั้งค่าอุปกรณ์บล็อก Ceph RBD และระบบไฟล์ CephFS เป็นที่เก็บข้อมูลสำรองของ...
ดาวน์โหลด- สินค้าที่เกี่ยวข้อง
Ceph Storage Appliance
ดาวอังคาร 400PRO
UniVirStor เป็นอุปกรณ์จัดเก็บข้อมูลที่กำหนดโดยซอฟต์แวร์ที่ใช้...
รายละเอียดอุปกรณ์จัดเก็บข้อมูลระดับองค์กร Mars 400SES SUSE
ดาวอังคาร 400SES
Mars400SES SUSE Enterprise Storage Appliance ประกอบด้วยฮาร์ดแวร์ไมโครเซิร์ฟเวอร์...
รายละเอียด