Verteilter Speicher | Ambedded – Eine professionelle Ceph-Speicherlösung auf dem Markt.

Sie können Ceph verwenden, um einen Servercluster zum Speichern von Daten mit hoher Verfügbarkeit aufzubauen. Datenreplikationen oder Löschcode-Blöcke werden verteilt in Geräten gespeichert, die zu unterschiedlichen vordefinierten Fehlerdomänen gehören. Ceph kann seinen Datendienst aufrechterhalten, ohne dass Daten verloren gehen, wenn mehrere Geräte, Serverknoten, Racks oder Standorte gleichzeitig ausfallen. Mit mehr als 20 Jahren Erfahrung im Bereich Software Defined Storage verfügt Ambedded über ein talentiertes Team mit Erfahrung in der Entwicklung und Herstellung von ARM-basierten Software Defined Storage Appliances.

service@ambedded.com.tw

Öffnungszeiten: 9-18 Uhr

Verteilter Speicher

Ceph Storage ist ein verteilter softwaredefinierter Speicher

Ceph Storage ist ein verteilter softwaredefinierter Speicher

Verteilter Speicher

Sie können Ceph verwenden, um einen Servercluster zum Speichern von Daten mit hoher Verfügbarkeit aufzubauen. Datenreplikationen oder Löschcode-Blöcke werden verteilt in Geräten gespeichert, die zu unterschiedlichen vordefinierten Fehlerdomänen gehören. Ceph kann seinen Datendienst aufrechterhalten, ohne dass Daten verloren gehen, wenn mehrere Geräte, Serverknoten, Racks oder Standorte gleichzeitig ausfallen.


Ceph Software-Defined Storage

Clients interagieren direkt mit allen Speichergeräten, um unter Verwendung des verteilten Speicheralgorithmus CRUSH von Ceph zu lesen und zu schreiben. Aus diesem Grund wird der Engpass des herkömmlichen Host-Bus-Adapters (HBA) beseitigt, der die Skalierbarkeit des Speichersystems einschränkt. Ceph kann seine Kapazität linear mit der Leistung bis in den Exabyte-Bereich skalieren

Ceph ist so konzipiert, dass es skalierbar ist und keinen Single Point of Failure aufweist. Monitor (MON), Object Storage Daemon (OSD) und Metadata Servers (MDS) sind drei wichtige Daemons (Linux-Prozess) im Ceph-Cluster. Normalerweise verfügt ein Ceph-Cluster aus Redundanzgründen über drei oder mehr Monitorknoten. Monitore verwalten eine Masterkopie der Cluster-Maps, die es Ceph-Clients ermöglichen, direkt mit OSD und MDS zu kommunizieren. Diese Maps sind kritische Cluster-Zustände, die Ceph-Daemons benötigen, um sich miteinander zu koordinieren. Monitore sind auch für die Verwaltung der Authentifizierung zwischen Daemons und Clients verantwortlich. Eine ungerade Anzahl von Monitoren verwaltet die Clusterzuordnung mit einem Quorum. Dieser Algorithmus vermeidet den Single Point of Failure auf dem Monitor und garantiert, dass ihr Konsens gültig ist. OSD ist der Objektspeicher-Daemon für das Ceph. Es speichert Daten, übernimmt die Datenreplikation, Wiederherstellung, Rebalancing und stellt einige Überwachungsinformationen für Ceph Monitors bereit, indem andere OSD-Daemons auf Hartbeat überprüft werden. Jeder Speicherserver führt einen oder mehrere OSD-Daemons aus, einen pro Speichergerät. Für Redundanz und Hochverfügbarkeit sind in der Regel mindestens 3 OSDs erforderlich. Der MDS-Daemon verwaltet Metadaten in Bezug auf Dateien, die im Ceph File System gespeichert sind, und koordiniert auch den Zugriff auf den gemeinsam genutzten Ceph Storage Cluster. Sie können mehrere aktive MDS für Redundanz haben und die Last jedes MDS ausgleichen. Sie benötigen nur dann einen oder mehrere Metadatenserver (MDS), wenn Sie das gemeinsam genutzte Dateisystem verwenden möchten. Für Redundanz und Hochverfügbarkeit sind in der Regel mindestens 3 OSDs erforderlich. Der MDS-Daemon verwaltet Metadaten in Bezug auf Dateien, die im Ceph File System gespeichert sind, und koordiniert auch den Zugriff auf den gemeinsam genutzten Ceph Storage Cluster. Sie können mehrere aktive MDS für Redundanz haben und die Last jedes MDS ausgleichen. Sie benötigen nur dann einen oder mehrere Metadatenserver (MDS), wenn Sie das gemeinsam genutzte Dateisystem verwenden möchten. Für Redundanz und Hochverfügbarkeit sind in der Regel mindestens 3 OSDs erforderlich. Der MDS-Daemon verwaltet Metadaten in Bezug auf Dateien, die im Ceph File System gespeichert sind, und koordiniert auch den Zugriff auf den gemeinsam genutzten Ceph Storage Cluster. Sie können mehrere aktive MDS für Redundanz haben und die Last jedes MDS ausgleichen. Sie benötigen nur dann einen oder mehrere Metadatenserver (MDS), wenn Sie das gemeinsam genutzte Dateisystem verwenden möchten.

Ceph ist skalierbarer Speicher

In einem herkömmlichen Speichersystem kommunizieren Clients mit einer zentralisierten Komponente (z. B. Host-Bus-Adapter oder Gateway), die ein einziger Zugangspunkt zu einem komplexen Subsystem ist. Der zentralisierte Controller begrenzt sowohl die Leistung als auch die Skalierbarkeit und führt einen Single Point of Failure ein. Wenn die zentralisierte Komponente ausfällt, fällt auch das gesamte System aus. Ceph-Clients erhalten die neueste Cluster-Karte von Monitoren und verwenden den CRUSH-Algorithmus, um zu berechnen, welches OSD im Cluster vorhanden ist. Dieser Algorithmus ermöglicht es Clients, direkt mit Ceph OSD zu interagieren, ohne einen zentralisierten Controller zu durchlaufen. Der CRUSH-Algorithmus eliminiert den einzelnen Pfad, wodurch die Skalierbarkeit eingeschränkt wird. Der Ceph OSD-Cluster stellt Clients einen gemeinsam genutzten Speicherpool bereit. Wenn Sie mehr Kapazität oder Leistung benötigen, können Sie ein neues OSD hinzufügen, um den Pool zu skalieren. Die Leistung eines Ceph-Clusters ist linear proportional zur Anzahl der OSDs. Das folgende Bild zeigt, wie sich die Lese-/Schreib-IOPS erhöht, wenn wir die Anzahl der OSDs erhöhen.

Herkömmliche Festplatten-Arrays verwenden den RAID-Controller, um Daten vor Festplattenausfällen zu schützen. Als die RAID-Technologie erfunden wurde, betrug die Kapazität einer Festplatte etwa 20 MB. Heute beträgt die Festplattenkapazität bis zu 16 TB. Die Wiederherstellung einer ausgefallenen Festplatte in der RAID-Gruppe kann eine Woche dauern. Während der RAID-Controller das ausgefallene Laufwerk wiederherstellt, besteht die Möglichkeit, dass gleichzeitig ein zweites Laufwerk ausfällt. Wenn der Neuaufbau länger dauert, ist die Wahrscheinlichkeit eines Datenverlusts höher.

Ceph stellt die Daten wieder her, die auf der ausgefallenen Festplatte von allen anderen fehlerfreien Laufwerken im Cluster verloren gegangen sind. Ceph baut nur die auf dem ausgefallenen Laufwerk gespeicherten Daten wieder auf. Wenn mehr fehlerfreie Festplatten vorhanden sind, ist die Wiederherstellungszeit kürzer.

Konfigurieren Sie Ceph CRUSH Map & Rule

Verwenden Sie den UVS-Manager, um die Ceph CRUSH-Karte und die CRUSH-Regeln zu definieren.




Ambedded – Eine professionelle Ceph-Speicherlösung auf dem Markt.

Befindet sich in Taiwanseit 2013,Ambedded Technology Co., LTD.ist ein Anbieter von Speicherlösungen von Ceph, der ARM-basierte softwaredefinierte Speichergeräte mit 60 % CapEX-Einsparung, 70 % weniger Stromverbrauch und 100 % Skalierungsvorteilen anbietet.

Für das Design und die Herstellung von softwaredefiniertem Speicher verfügt das Ambedded-Team über umfassende Erfahrung, um Kunden bei der Einführung der ceph-Lösung in vielseitigen Branchen wie Telekommunikation, Medizin, Militär, Edge-Rechenzentren und HA-erforderliche Unternehmensspeicher zu unterstützen.

Ambedded bietet seinen Kunden seit 2013 Ceph-Speicherlösungen an, sowohl fortschrittliche Technologie als auch 20 Jahre Erfahrung. Ambedded stellt sicher, dass die Anforderungen jedes Kunden erfüllt werden.