分散ストレージ

Cephストレージは、分散ソフトウェアで定義されたストレージです

Cephストレージは、分散ソフトウェアで定義されたストレージです

分散ストレージ

Cephを使用して、データを高可用性で保存するためのサーバークラスターを構築できます。データの複製またはイレイジャーコードのチャンクは、事前に定義されたさまざまな障害ドメインに属するデバイスに分散して保存されます。Cephは、複数のデバイス、サーバーノード、ラック、またはサイトに一度に障害が発生した場合にデータを失うことなく、データサービスを維持できます。


Cephソフトウェアディファインドストレージ

クライアントは、Cephの分散ストレージアルゴリズムCRUSHを利用して、すべてのストレージデバイスと直接対話し、読み取りと書き込みを行います。このため、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプタ(HBA)のボトルネックが解消されます。Cephは、パフォーマンスに応じて容量をエクサバイトスケールまで直線的にスケールアウトできます。

Cephは、スケーラブルであり、単一障害点がないように設計されています。モニター(MON)、オブジェクトストレージデーモン(OSD)、およびメタデータサーバー(MDS)は、Cephクラスターの3つの主要なデーモン(Linuxプロセス)です。通常、Cephクラスターには冗長性のために3つ以上のモニターノードがあります。モニターはクラスターマップのマスターコピーを維持します。これにより、CephクライアントはOSDおよびMDSと直接通信できます。これらのマップは、Cephデーモンが相互に調整するために必要な重要なクラスター状態です。モニターは、デーモンとクライアント間の認証の管理も担当します。奇数のモニターは、クォーラムを使用してクラスターマップを維持します。このアルゴリズムは、モニター上の単一障害点を回避し、それらのコンセンサスが有効であることを保証します。OSDは、Cephのオブジェクトストレージデーモンです。データを保存し、データの複製、回復を処理し、リバランスし、他のOSDデーモンのハートビートをチェックすることにより、CephMonitorsにいくつかの監視情報を提供します。すべてのストレージサーバーは、ストレージデバイスごとに1つずつ、1つまたは複数のOSDデーモンを実行します。通常、冗長性と高可用性を実現するには、少なくとも3つのOSDが必要です。MDSデーモンは、Cephファイルシステムに保存されているファイルに関連するメタデータを管理し、共有Cephストレージクラスターへのアクセスを調整します。冗長性を確保し、各MDSの負荷を分散するために、複数のアクティブなMDSを使用できます。共有ファイルシステムを使用する場合にのみ、1つ以上のメタデータサーバー(MDS)が必要になります。通常、冗長性と高可用性を実現するには、少なくとも3つのOSDが必要です。MDSデーモンは、Cephファイルシステムに保存されているファイルに関連するメタデータを管理し、共有Cephストレージクラスターへのアクセスを調整します。冗長性を確保し、各MDSの負荷を分散するために、複数のアクティブなMDSを使用できます。共有ファイルシステムを使用する場合にのみ、1つ以上のメタデータサーバー(MDS)が必要になります。通常、冗長性と高可用性を実現するには、少なくとも3つのOSDが必要です。MDSデーモンは、Cephファイルシステムに保存されているファイルに関連するメタデータを管理し、共有Cephストレージクラスターへのアクセスを調整します。冗長性を確保し、各MDSの負荷を分散するために、複数のアクティブなMDSを使用できます。共有ファイルシステムを使用する場合にのみ、1つ以上のメタデータサーバー(MDS)が必要になります。

Cephはスケーラブルなストレージです

従来のストレージシステムでは、クライアントは、複雑なサブシステムへの単一のエントリポイントである集中型コンポーネント(ホストバスアダプタやゲートウェイなど)と通信します。集中型コントローラは、パフォーマンスとスケーラビリティの両方に制限を課すだけでなく、単一障害点を導入します。集中型コンポーネントがダウンすると、システム全体もダウンします。Cephクライアントは、モニターから最新のクラスターマップを取得し、CRUSHアルゴリズムを使用してクラスター内のどのOSDを計算します。このアルゴリズムにより、クライアントは集中型コントローラーを経由せずにCephOSDと直接対話できます。CRUSHアルゴリズムは、スケーラビリティの制限を引き起こす単一パスを排除します。Ceph OSDクラスターは、クライアントに共有ストレージプールを提供します。より多くの容量またはパフォーマンスが必要な場合は、新しいOSDを追加してプールをスケールアウトできます。Cephクラスターのパフォーマンスは、OSDの数に直線的に比例します。次の図は、OSDの数を増やすと読み取り/書き込みIOPSが増加することを示しています。

従来のディスクアレイは、RAIDコントローラーを使用してデータをディスク障害から保護します。RAID技術が発明されたとき、ハードディスクドライブの容量は約20MBでした。現在、ディスク容量は16TBにも達します。RAIDグループで障害が発生したディスクを再構築する時間は1週間かかる場合があります。RAIDコントローラが故障したドライブを再構築している間、2番目のディスクが同時に故障する可能性があります。再構築に時間がかかると、データが失われる可能性が高くなります。

Cephは、クラスター内の他のすべての正常なドライブによって障害が発生したディスクで失われたデータを回復します。Cephは、故障したドライブに保存されているデータのみを再構築します。より正常なディスクがある場合、リカバリ時間は短くなります。

ConfigCephCRUSHマップとルール

UVSマネージャーを使用して、CephCRUSHマップとCRUSHルールを定義します。




Ambedded-市場向けのプロフェッショナルなCephストレージソリューション。

2013年から台湾に拠点を置いています。Ambedded Technology Co., LTD.はCephストレージソリューションプロバイダーであり、60%のCapEX節約、70%の消費電力、100%のスケールアウトの利点を備えたARMベースのソフトウェアディファインドストレージアプライアンスを提供します。

ソフトウェアディファインドストレージの設計と製造に関して、Ambeddedチームは、テレコム、医療、軍事、エッジデータセンター、HAが必要とするエンタープライズストレージなどの多様な業界にcephソリューションを採用するのを支援する幅広い経験を持っています。

Ambeddedは、2013年以来、高度なテクノロジーと20年の経験の両方で、顧客にCephストレージソリューションを提供してきました。Ambeddedは、各顧客の要求が満たされることを保証します。