分散ストレージ / Ambedded 2013年に設立され、経験豊富なチームが ARM ベースのソフトウェア定義ストレージアプライアンスの設計と製造。

使用できます Ceph高可用性でデータを保存するためのサーバークラスタを構築する。データ複製またはerasure code チャンクは、事前に定義された異なる障害ドメインに属するデバイスに分散して格納されます。 Cephは、一度に複数のデバイス、サーバーノード、ラック、またはサイトに障害が発生しても、データを失うことなくデータサービスを維持できます。クライアントは、すべてのストレージデバイスと直接対話して、読み書きを利用しますCephの分散ストレージアルゴリズムCRUSH。これにより、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプター(HBA)のボトルネックが解消されます。Ceph エクサバイト規模のパフォーマンスで直線的に容量をスケールアウトできます。 Ceph高可用性でデータを保存するためのサーバークラスタを構築する。データ複製またはerasure code チャンクは、事前に定義された異なる障害ドメインに属するデバイスに分散して格納されます。 Cephは、一度に複数のデバイス、サーバーノード、ラック、またはサイトに障害が発生しても、データを失うことなくデータサービスを維持できます。クライアントは、すべてのストレージデバイスと直接対話して、読み書きを利用しますCephの分散ストレージアルゴリズムCRUSH。これにより、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプター(HBA)のボトルネックが解消されます。Ceph エクサバイト規模のパフォーマンスで直線的に容量をスケールアウトできます。 Ambedded 分散ストレージの紹介。 Ambedded 2013年に設立され、経験豊富なチームが ARM ベースのソフトウェア定義ストレージアプライアンスの設計と製造。 Ambedded オファー Ceph storage を含む市場へのソリューション Ceph storage Appliance オン ARM マイクロサーバーと SUSE Enterprise Storage アプライアンスがオン ARMマイクロサーバー。に加えてCeph 解決、 Ambedded 包括的なも提供しています Ceph 未経験のユーザーがためらうことなくこの新技術を採用できるように、顧客へのソフトウェアサポート。

service@ambedded.com.tw

営業時間:9 am-6pm

Ambedded Technology Co., LTD.

Ceph storage 分散ソフトウェア定義のストレージです

分散ストレージ

使用できます Ceph高可用性でデータを保存するためのサーバークラスタを構築する。データ複製またはerasure code チャンクは、事前に定義された異なる障害ドメインに属するデバイスに分散して格納されます。 Cephは、一度に複数のデバイス、サーバーノード、ラック、またはサイトに障害が発生しても、データを失うことなくデータサービスを維持できます。
クライアントは、すべてのストレージデバイスと直接対話して、読み書きを利用しますCephの分散ストレージアルゴリズムCRUSH。これにより、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプター(HBA)のボトルネックが解消されます。Ceph エクサバイト規模のパフォーマンスで直線的に容量をスケールアウトできます。 Ceph高可用性でデータを保存するためのサーバークラスタを構築する。データ複製またはerasure code チャンクは、事前に定義された異なる障害ドメインに属するデバイスに分散して格納されます。 Cephは、一度に複数のデバイス、サーバーノード、ラック、またはサイトに障害が発生しても、データを失うことなくデータサービスを維持できます。
クライアントは、すべてのストレージデバイスと直接対話して、読み書きを利用しますCephの分散ストレージアルゴリズムCRUSH。これにより、ストレージシステムのスケーラビリティを制限する従来のホストバスアダプター(HBA)のボトルネックが解消されます。Ceph エクサバイト規模のパフォーマンスで直線的に容量をスケールアウトできます。


Ceph ソフトウェア定義ストレージ

Ceph スケーラブルで、単一障害点がないように設計されています。
Monitor (月)、 Object Storage デーモン(OSD)とメタデータサーバー(MDS)は、3つの主要なデーモン(Linuxプロセス)です。 Ceph 集まる。

通常、A Ceph クラスタには3つ以上あります monitor冗長性のためのノード。Monitors クラスタマップのマスターコピーを維持します。これにより、 CephOSDおよびMDSと直接通信するクライアント。これらのマップは、クラスターの重要な状態です。Ceph 互いに調整するデーモン。 Monitorsデーモンとクライアント間の認証の管理も担当します。奇数monitorsクォーラムを使用してクラスターマップを維持します。このアルゴリズムは、単一障害点を回避しますmonitor そして、彼らの合意が有効であることを保証します。

OSDは object storage のデーモン Ceph。データを保存し、データのレプリケーション、リカバリ、リバランスを処理し、監視情報を提供しますCeph Monitors他のOSDデーモンでハートビートを確認します。すべてのストレージサーバーは、ストレージデバイスごとに1 つまたは複数のOSDデーモンを実行します。冗長性と高可用性を実現するには、通常、少なくとも3つのOSDが必要です。

MDSデーモンは、 Ceph File System 共有へのアクセスも調整します Ceph Storage集まる。複数のアクティブMDSを使用して冗長性を確保し、各MDSの負荷を分散できます。共有を使用する場合にのみ、1つ以上のメタデータサーバー(MDS)が必要になります。file system。

Ceph スケーラブルなストレージです

従来のストレージシステムでは、クライアントは集中コンポーネント(ホストバスアダプターやゲートウェイなど)と通信します。これは、複雑なサブシステムへの単一のエントリポイントです。一元化されたコントローラーは、パフォーマンスとスケーラビリティーの両方に制限を課し、単一障害点を導入します。集中コンポーネントがダウンすると、システム全体もダウンします。

Ceph クライアントは最新のクラスターマップを取得します monitorsCRUSHアルゴリズムを使用して、クラスター内のOSDを計算します。このアルゴリズムにより、クライアントはCeph集中型コントローラーを経由せずに直接OSD。CRUSHアルゴリズムは単一パスを排除するため、スケーラビリティが制限されます。

Ceph OSDクラスタはクライアントに共有ストレージを提供します pool。より多くの容量またはパフォーマンスが必要な場合は、新しいOSDを追加して、pool。のパフォーマンスCephクラスターは、OSDの数に直線的に比例します。次の図は、OSDの数を増やすと、読み取り/書き込みIOPSが増加することを示しています。

read /write IO performance is linearly scale out with the number of the OSD

従来のディスクアレイは、RAIDコントローラーを使用してデータをディスク障害から保護します。RAIDテクノロジーが発明されたとき、ハードディスクドライブの容量は約20MBでした。今日のディスク容量は16TBにもなります。RAIDグループで障害が発生したディスクを再構築するのに1週間かかる場合があります。RAIDコントローラが故障したドライブを再構築している間、2台目のディスクが同時に故障する可能性があります。再構築に時間がかかる場合、データが失われる可能性が高くなります。

Ceph クラスタ内の他のすべての正常なドライブによって障害が発生したディスクで失われたデータを回復します。 Ceph障害が発生したドライブに格納されているデータを修復するだけです。正常なディスクの数が多いほど、回復時間は短くなります。

構成 Ceph CRUSH Map &ルール

使用 UVS manager 定義する Ceph CRUSH map とクラッシュルール。



Ceph Storage ソリューションの設計と製造| Ambedded

台湾にあり、 Ambedded Technology Co., LTD. は Ceph storage 提供するソリューションプロバイダー ARM ベースのソフトウェア定義ストレージアプライアンスで、CapEXが60%節約され、消費電力が70%削減され、スケールアウトの利点は100%になります。

ソフトウェアデファインドストレージの設計と製造では、 Ambedded チームは、顧客が採用するのを支援する幅広い経験を持っています ceph テレコム、医療、軍事、エッジデータセンター、HAなどの多用途産業へのソリューションには、エンタープライズストレージが必要でした。

Ambedded 顧客に提供しています Ceph storage 2013年以降のソリューション、高度な技術と20年の経験の両方、 Ambedded 各顧客の要求が確実に満たされるようにします。