ที่เก็บข้อมูลแบบกระจาย

ที่เก็บข้อมูล Ceph เป็นพื้นที่จัดเก็บที่กำหนดโดยซอฟต์แวร์แบบกระจาย

ที่เก็บข้อมูล Ceph เป็นพื้นที่จัดเก็บที่กำหนดโดยซอฟต์แวร์แบบกระจาย

ที่เก็บข้อมูลแบบกระจาย

คุณสามารถใช้ Ceph เพื่อสร้างคลัสเตอร์เซิร์ฟเวอร์สำหรับจัดเก็บข้อมูลที่มีความพร้อมใช้งานสูง การจำลองข้อมูลหรือส่วนของโค้ดการลบจะถูกจัดเก็บแบบกระจายในอุปกรณ์ที่เป็นของโดเมนความล้มเหลวที่กำหนดไว้ล่วงหน้าที่แตกต่างกัน Ceph สามารถรักษาบริการข้อมูลได้โดยไม่สูญเสียข้อมูลเมื่ออุปกรณ์ โหนดเซิร์ฟเวอร์ ชั้นวาง หรือไซต์หลายเครื่องล้มเหลวในแต่ละครั้ง


ที่เก็บข้อมูลที่กำหนดโดยซอฟต์แวร์ Ceph

ลูกค้าโต้ตอบโดยตรงกับอุปกรณ์จัดเก็บข้อมูลทั้งหมดเพื่ออ่านและเขียนโดยใช้อัลกอริธึมการจัดเก็บแบบกระจายของ Ceph CRUSH ด้วยเหตุนี้ จึงขจัดปัญหาคอขวดบน Host Bus Adapter (HBA) แบบเดิม ซึ่งจำกัดความสามารถในการปรับขนาดของระบบจัดเก็บข้อมูล Ceph สามารถขยายความจุเป็นเส้นตรงพร้อมประสิทธิภาพเป็นมาตราส่วนเอกซาไบต์

Ceph ได้รับการออกแบบมาให้สามารถปรับขนาดได้และไม่มีจุดบกพร่องเพียงจุดเดียว Monitor (MON), Object Storage Daemon (OSD) และ Metadata Servers (MDS) เป็น daemons หลักสามตัว (กระบวนการ Linux) ในคลัสเตอร์ Ceph โดยปกติ คลัสเตอร์ Ceph จะมีโหนดมอนิเตอร์สามโหนดขึ้นไปเพื่อความซ้ำซ้อน มอนิเตอร์จะรักษาสำเนาหลักของแผนผังคลัสเตอร์ ซึ่งช่วยให้ไคลเอ็นต์ Ceph สามารถสื่อสารกับ OSD และ MDS ได้โดยตรง แผนที่เหล่านี้เป็นสถานะคลัสเตอร์ที่สำคัญซึ่งจำเป็นสำหรับ Ceph daemons เพื่อประสานงานซึ่งกันและกัน มอนิเตอร์ยังรับผิดชอบในการจัดการการพิสูจน์ตัวตนระหว่าง daemons และไคลเอนต์ จำนวนจอภาพที่คี่จะรักษาแผนที่คลัสเตอร์โดยใช้องค์ประชุม อัลกอริธึมนี้หลีกเลี่ยงจุดล้มเหลวเพียงจุดเดียวบนจอภาพและรับประกันว่าความเห็นพ้องต้องกันที่ถูกต้อง OSD เป็นภูตการจัดเก็บอ็อบเจ็กต์สำหรับ Ceph มันเก็บข้อมูล จัดการการจำลองข้อมูล การกู้คืน ปรับสมดุลและให้ข้อมูลการตรวจสอบบางอย่างแก่ Ceph Monitors โดยตรวจสอบ OSD Daemons อื่น ๆ สำหรับฮาร์ตบีต เซิร์ฟเวอร์หน่วยเก็บข้อมูลทุกตัวรัน OSD daemons หนึ่งตัวหรือหลายตัว หนึ่งตัวต่ออุปกรณ์จัดเก็บข้อมูล โดยปกติต้องมี OSD อย่างน้อย 3 ตัวเพื่อความซ้ำซ้อนและความพร้อมใช้งานสูง MDS daemon จัดการข้อมูลเมตาที่เกี่ยวข้องกับไฟล์ที่จัดเก็บไว้ในระบบไฟล์ Ceph และยังประสานการเข้าถึงกับ Ceph Storage Cluster ที่ใช้ร่วมกัน คุณสามารถมี MDS ที่ใช้งานอยู่ได้หลายรายการเพื่อความซ้ำซ้อนและปรับสมดุลโหลดของ MDS แต่ละรายการ คุณจะต้องใช้เซิร์ฟเวอร์ข้อมูลเมตา (MDS) อย่างน้อยหนึ่งเซิร์ฟเวอร์เมื่อคุณต้องการใช้ระบบไฟล์ที่ใช้ร่วมกัน โดยปกติต้องมี OSD อย่างน้อย 3 ตัวเพื่อความซ้ำซ้อนและความพร้อมใช้งานสูง MDS daemon จัดการข้อมูลเมตาที่เกี่ยวข้องกับไฟล์ที่จัดเก็บไว้ในระบบไฟล์ Ceph และยังประสานการเข้าถึงกับ Ceph Storage Cluster ที่ใช้ร่วมกัน คุณสามารถมี MDS ที่ใช้งานอยู่ได้หลายรายการเพื่อความซ้ำซ้อนและปรับสมดุลโหลดของ MDS แต่ละรายการ คุณจะต้องใช้เซิร์ฟเวอร์ข้อมูลเมตา (MDS) อย่างน้อยหนึ่งเซิร์ฟเวอร์เมื่อคุณต้องการใช้ระบบไฟล์ที่ใช้ร่วมกัน โดยปกติต้องมี OSD อย่างน้อย 3 ตัวเพื่อความซ้ำซ้อนและความพร้อมใช้งานสูง MDS daemon จัดการข้อมูลเมตาที่เกี่ยวข้องกับไฟล์ที่จัดเก็บไว้ในระบบไฟล์ Ceph และยังประสานการเข้าถึงกับ Ceph Storage Cluster ที่ใช้ร่วมกัน คุณสามารถมี MDS ที่ใช้งานอยู่ได้หลายรายการเพื่อความซ้ำซ้อนและปรับสมดุลโหลดของ MDS แต่ละรายการ คุณจะต้องใช้เซิร์ฟเวอร์ข้อมูลเมตา (MDS) อย่างน้อยหนึ่งเซิร์ฟเวอร์เมื่อคุณต้องการใช้ระบบไฟล์ที่ใช้ร่วมกัน

Ceph เป็นพื้นที่จัดเก็บที่ปรับขนาดได้

ในระบบจัดเก็บข้อมูลแบบดั้งเดิม ลูกค้าจะพูดคุยกับส่วนประกอบส่วนกลาง (เช่น โฮสต์บัสอะแด็ปเตอร์หรือเกตเวย์) ซึ่งเป็นจุดเข้าใช้ระบบย่อยที่ซับซ้อนเพียงจุดเดียว ตัวควบคุมแบบรวมศูนย์กำหนดขีดจำกัดทั้งด้านประสิทธิภาพและความสามารถในการขยาย รวมทั้งแนะนำจุดล้มเหลวเพียงจุดเดียว หากส่วนประกอบส่วนกลางหยุดทำงาน ทั้งระบบก็จะล่มเช่นกัน ไคลเอ็นต์ Ceph จะได้รับแผนที่คลัสเตอร์ล่าสุดจากจอภาพ และใช้อัลกอริทึม CRUSH เพื่อคำนวณ OSD ใดในคลัสเตอร์ อัลกอริธึมนี้ช่วยให้ไคลเอนต์สามารถโต้ตอบกับ Ceph OSD ได้โดยตรงโดยไม่ต้องผ่านคอนโทรลเลอร์จากส่วนกลาง อัลกอริธึม CRUSH กำจัดเส้นทางเดียว ซึ่งทำให้ข้อจำกัดของความสามารถในการปรับขนาด คลัสเตอร์ Ceph OSD จัดเตรียมพูลหน่วยเก็บข้อมูลแบบแบ่งใช้ให้ไคลเอ็นต์ เมื่อคุณต้องการความจุหรือประสิทธิภาพที่มากขึ้น คุณสามารถเพิ่ม OSD ใหม่เพื่อขยายขนาดพูลได้ ประสิทธิภาพของคลัสเตอร์ Ceph เป็นสัดส่วนเชิงเส้นกับจำนวน OSD รูปภาพต่อไปนี้แสดงการอ่าน/เขียน IOPS ที่เพิ่มขึ้น หากเราเพิ่มจำนวน OSD

ดิสก์อาเรย์แบบดั้งเดิมใช้ตัวควบคุม RAID เพื่อปกป้องข้อมูลจากความล้มเหลวของดิสก์ ความจุของฮาร์ดดิสก์ไดรฟ์อยู่ที่ประมาณ 20MB เมื่อมีการประดิษฐ์เทคโนโลยี RAID วันนี้ความจุของดิสก์มีขนาดใหญ่ถึง 16TB เวลาในการสร้างดิสก์ที่ล้มเหลวใหม่ในกลุ่ม RAID อาจใช้เวลาหนึ่งสัปดาห์ ในขณะที่ตัวควบคุม RAID กำลังสร้างไดรฟ์ที่ล้มเหลวขึ้นใหม่ มีโอกาสที่ดิสก์ที่สองอาจล้มเหลวพร้อมกัน หากการสร้างใหม่ใช้เวลานานขึ้น ความน่าจะเป็นของการสูญเสียข้อมูลจะสูงขึ้น

Ceph กู้คืนข้อมูลที่สูญหายในดิสก์ที่ล้มเหลวโดยไดรฟ์ที่มีสุขภาพดีอื่นๆ ทั้งหมดในคลัสเตอร์ Ceph จะสร้างใหม่เฉพาะข้อมูลที่เก็บไว้ในไดรฟ์ที่ล้มเหลวเท่านั้น หากมีดิสก์ที่ทำงานได้ดีกว่า เวลาในการกู้คืนจะสั้นลง

แผนที่และกฎ Config Ceph CRUSH

ใช้ตัวจัดการ UVS เพื่อกำหนดแผนที่ Ceph CRUSH และกฎ CRUSH




Ambedded - โซลูชันการจัดเก็บ Ceph ระดับมืออาชีพสู่ตลาด

ตั้งอยู่ในไต้หวันตั้งแต่ 2013,Ambedded Technology Co., LTD.เป็นผู้ให้บริการโซลูชันการจัดเก็บข้อมูล Ceph ที่นำเสนออุปกรณ์จัดเก็บข้อมูลที่กำหนดโดยซอฟต์แวร์ที่ใช้ ARM พร้อมการประหยัด CapEX 60% ใช้พลังงานน้อยลง 70% และข้อดีในการขยายขนาด 100%

สำหรับการออกแบบและการผลิตอุปกรณ์จัดเก็บข้อมูลที่กำหนดโดยซอฟต์แวร์ ทีมงานของ Ambedded มีประสบการณ์มากมายในการช่วยลูกค้านำโซลูชัน ceph ไปใช้ในอุตสาหกรรมที่หลากหลาย เช่น โทรคมนาคม การแพทย์ การทหาร ศูนย์ข้อมูล Edge และ HA ที่จำเป็นต้องใช้พื้นที่จัดเก็บข้อมูลระดับองค์กร

Ambedded ได้นำเสนอโซลูชั่นการจัดเก็บข้อมูล Ceph ให้กับลูกค้ามาตั้งแต่ปี 2556 ทั้งเทคโนโลยีขั้นสูงและประสบการณ์กว่า 20 ปี Ambedded ช่วยให้มั่นใจว่าจะตอบสนองความต้องการของลูกค้าแต่ละราย