Wysoka dostępność i trwałość danych

Ceph oferuje replikację, kod EC, CRUSH, czyszczenie w celu ochrony danych i HA

Ceph oferuje replikację, kod EC, CRUSH, czyszczenie w celu ochrony danych i HA

Wysoka dostępność i trwałość danych

Obiektowa pamięć masowa Ceph zapewnia dostępność danych dzięki replikacji i zaawansowanemu kodowaniu wymazywania, dzięki czemu dane są łączone z informacjami o parzystości, a następnie dzielone na fragmenty i dystrybuowane w całej puli pamięci.
Gdy urządzenie pamięci masowej ulegnie awarii, do przywrócenia danych potrzebny jest tylko podzbiór fragmentów, nie ma czasu na odbudowę ani obniżoną wydajność, a uszkodzone urządzenia pamięci masowej można wymienić, gdy jest to wygodne.
Ceph łączy szeroko rozproszone dane i technologię czyszczenia danych, która w sposób ciągły weryfikuje dane zapisane na nośniku, umożliwiając osiągnięcie 15-dziesiętnej trwałości danych.


Replikacja danych, usuwanie kodowania i czyszczenie

Replikacja obiektów

Gdy klient zamierza zapisywać dane, używa identyfikatora obiektu i nazwy puli, aby obliczyć, do którego OSD powinien zapisywać. Po tym, jak klient zapisze dane w OSD, OSD kopiuje dane do jednego lub więcej OSD. Możesz skonfigurować tyle replikacji, ile chcesz, aby dane mogły przetrwać w przypadku jednoczesnej awarii wielu OSD. Replikacja jest podobna do RAID-1 macierzy dyskowej, ale pozwala na większą liczbę kopii danych. Ponieważ na dużą skalę prosta replikacja RAID-1 może już nie pokrywać w wystarczającym stopniu ryzyka awarii sprzętu. Jedyną wadą przechowywania większej liczby replik jest koszt przechowywania.

Klienci Ceph zapisują dane losowo do OSD w oparciu o algorytm CRUSH . Jeśli dysk lub węzeł OSD ulegnie awarii, Ceph może ponownie naprawić dane z innych replikacji przechowywanych w zdrowych OSD.

Możesz zdefiniować domenę awarii, aby Ceph przechowywał replikowane dane na różnych serwerach, stojakach, pokojach lub centrach danych, aby uniknąć utraty danych z powodu jednej lub więcej awarii całej domeny awarii. Na przykład, jeśli masz 15 serwerów pamięci masowej zainstalowanych w 5 stojakach (po 3 serwery w każdym stojaku), możesz użyć repliki trzeciej i stojaka jako domeny awarii. Dane zapisywane do Ceph cluster zawsze będą miały trzy kopie przechowywane w trzech z pięciu stojaków. Dane mogą przetrwać w przypadku awarii maksymalnie 2 szaf bez pogorszenia jakości obsługi klienta. Reguła CRUSH jest kluczem do tego, aby Przechowywanie Ceph nie miało jednego punktu awarii .

CRUSH rules ensure replicated data are distributed to different server nodes by following the failure domain

Wymazywanie kodowania

Replikacja oferuje najlepszą ogólną wydajność, ale nie zajmuje dużo miejsca na dysku. Zwłaszcza jeśli potrzebujesz wyższego stopnia redundancji.
Aby mieć wysoką dostępność danych, używaliśmy w przeszłości RAID-5 lub RAID-6 jako alternatywy dla RAID-1. Parity RAID zapewnia nadmiarowość przy znacznie mniejszym obciążeniu pamięci masowej kosztem wydajności pamięci masowej (głównie wydajności zapisu). Ceph używa kodowania wymazywania, aby osiągnąć podobny wynik. Gdy skala systemu pamięci masowej staje się duża, możesz czuć się niepewnie, pozwalając na awarię tylko jednego lub dwóch dysków lub domen awarii w tym samym czasie. Algorytm wymazywania kodu umożliwia skonfigurowanie wyższego poziomu nadmiarowości, ale z mniejszą przestrzenią narzutu.
Wymazywanie kodowania dzieli oryginalne dane na porcje danych K i oblicza dodatkowe porcje kodowania M. Ceph może w międzyczasie odzyskać maksymalną liczbę M uszkodzonych domen. Całkowita K+M porcji jest przechowywana w OSD, które znajdują się w różnych domenach awarii.

use Erasure coding K+M=4+2 for it data protection.

Szorowanie

W ramach utrzymywania spójności i czystości danych, demony Ceph OSD mogą szorować obiekty w obrębie grup rozmieszczania. Oznacza to, że demony Ceph OSD mogą porównywać metadane obiektów w jednej grupie miejsc docelowych z ich replikami w grupach miejsc docelowych przechowywanych w innych OSD. Oczyszczanie (zwykle wykonywane codziennie) wyłapuje błędy lub błędy systemu plików. Demony Ceph OSD wykonują również głębsze czyszczenie, porównując dane w obiektach bit po bicie. Głębokie szorowanie (zwykle wykonywane co tydzień) znajduje uszkodzone sektory na dysku, które nie były widoczne w lekkim szorowaniu.

Uzdrawianie danych

Ze względu na projekt rozmieszczenia danych w Ceph, dane są leczone przez wszystkie zdrowe OSD. Do naprawy danych nie jest wymagany zapasowy dysk. Może to spowodować, że czas naprawy stanie się znacznie krótszy w porównaniu z macierzą dyskową, która musi odbudować utracone dane na dysk zapasowy.

one server nodes fails the cluster will self-heal by applying same data protection method.

Skonfiguruj mapę i reguły CRUSH

Użyj menedżera UVS, aby zdefiniować dystrybucję danych i domenę awarii.




Ambedded - Profesjonalne rozwiązanie do przechowywania Ceph na rynku.

Znajduje się na Tajwanie od 2013 roku,Ambedded Technology Co., LTD.jest dostawcą rozwiązań pamięci masowej Ceph, który oferuje urządzenia pamięci masowej oparte na oprogramowaniu ARM z 60% oszczędnością CapEX, 70% mniejszym zużyciem energii i 100% korzyściami skalowania.

Jeśli chodzi o projektowanie i produkcję pamięci masowych definiowanych programowo, zespół Ambedded ma szerokie doświadczenie, aby pomóc klientom w adaptacji rozwiązania ceph we wszechstronnych branżach, takich jak telekomunikacja, medycyna, wojsko, centra danych brzegowych i pamięć masowa przedsiębiorstwa wymagana przez HA.

Ambedded oferuje klientom rozwiązania pamięci masowej Ceph od 2013 roku, zarówno zaawansowaną technologię, jak i 20-letnie doświadczenie, Ambedded zapewnia spełnienie wymagań każdego klienta.