
分散ストレージ
使用できます
Ceph高可用性でデータを格納するためのサーバークラスターを構築します。データの複製または
erasure code チャンクは、事前定義されたさまざまな障害ドメインに属するデバイスに分散して格納されます。
Ceph複数のデバイス、サーバーノード、ラック、またはサイトに一度に障害が発生した場合に、データを失うことなくデータサービスを維持できます。
クライアントはすべてのストレージデバイスと直接対話して、を利用して読み取りと書き込みを行います
Cephの分散ストレージアルゴリズムCRUSH。このため、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプタ(HBA)のボトルネックが解消されます。
Ceph 容量をパフォーマンスに比例してエクサバイトスケールにスケールアウトできます。
Ceph高可用性でデータを格納するためのサーバークラスターを構築します。データの複製または
erasure code チャンクは、事前定義されたさまざまな障害ドメインに属するデバイスに分散して格納されます。
Ceph複数のデバイス、サーバーノード、ラック、またはサイトに一度に障害が発生した場合に、データを失うことなくデータサービスを維持できます。
クライアントはすべてのストレージデバイスと直接対話して、を利用して読み取りと書き込みを行います
Cephの分散ストレージアルゴリズムCRUSH。このため、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプタ(HBA)のボトルネックが解消されます。
Ceph 容量をパフォーマンスに比例してエクサバイトスケールにスケールアウトできます。
Ceph ソフトウェアデファインドストレージ
Ceph スケーラブルで、単一障害点がないように設計されています。
Monitor (月)、 Object Storage デーモン(OSD)とメタデータサーバー(MDS)は、次の3つの主要なデーモン(Linuxプロセス)です。 Ceph 集まる。
通常、A Ceph クラスターは3つ以上になります monitor冗長性のためのノード。Monitors クラスターマップのマスターコピーを維持します。これにより、 CephクライアントはOSDおよびMDSと直接通信します。これらのマップは、に必要な重要なクラスター状態です。Ceph 互いに調整するデーモン。 Monitorsデーモンとクライアント間の認証の管理も担当します。の奇数monitorsクォーラムを使用してクラスターマップを維持します。このアルゴリズムは、単一障害点を回避します。monitor そして、彼らのコンセンサスが有効であることを保証します。
OSDは object storage のデーモン Ceph。データを保存し、データレプリケーション、リカバリ、リバランスを処理し、いくつかの監視情報をCeph Monitors他のOSDデーモンのハートビートをチェックします。すべてのストレージサーバーは、ストレージデバイスごとに1つずつ、1つまたは複数のOSDデーモンを実行します。通常、冗長性と高可用性を実現するには、少なくとも3つのOSDが必要です。
MDSデーモンは、に保存されているファイルに関連するメタデータを管理します。 Ceph File System また、共有へのアクセスを調整します Ceph Storage集まる。冗長性を確保し、各MDSの負荷を分散するために、複数のアクティブなMDSを使用できます。共有を使用する場合にのみ、1つ以上のメタデータサーバー(MDS)が必要になりますfile system。
Ceph スケーラブルなストレージです
従来のストレージシステムでは、クライアントは、複雑なサブシステムへの単一のエントリポイントである集中型コンポーネント(ホストバスアダプタやゲートウェイなど)と通信します。集中型コントローラーは、パフォーマンスとスケーラビリティの両方に制限を課すだけでなく、単一障害点を導入します。集中型コンポーネントがダウンすると、システム全体もダウンします。
Ceph クライアントはから最新のクラスターマップを取得します monitorsCRUSHアルゴリズムを使用して、クラスター内のどのOSDを計算します。このアルゴリズムにより、クライアントはCeph集中型コントローラーを経由せずに直接OSD。CRUSHアルゴリズムは、スケーラビリティの制限を引き起こす単一パスを排除します。
Ceph OSDクラスターはクライアントに共有ストレージを提供します pool。より多くの容量またはパフォーマンスが必要な場合は、新しいOSDを追加してスケールアウトできます。pool。のパフォーマンスCephクラスターはOSDの数に直線的に比例します。次の図は、OSDの数を増やすと読み取り/書き込みIOPSが増加することを示しています。
従来のディスクアレイは、RAIDコントローラーを使用してデータをディスク障害から保護します。RAID技術が発明されたとき、ハードディスクドライブの容量は約20MBでした。今日、ディスク容量は16TBにもなります。RAIDグループで障害が発生したディスクを再構築するのに1週間かかる場合があります。RAIDコントローラが故障したドライブを再構築している間、2番目のディスクが同時に故障する可能性があります。再構築に時間がかかると、データが失われる可能性が高くなります。
Ceph 障害が発生したディスクで、クラスター内の他のすべての正常なドライブによって失われたデータを回復します。 Ceph再構築は、故障したドライブに保存されているデータのみを修復します。正常なディスクが多いほど、回復時間は短くなります。
- 構成 Ceph CRUSH Map &ルール
使用 UVS manager を定義する Ceph CRUSH map およびCRUSHルール。