분산 스토리지

Ceph 스토리지는 분산 소프트웨어 정의 스토리지입니다.

Ceph 스토리지는 분산 소프트웨어 정의 스토리지입니다.

분산 스토리지

Ceph를 사용하여 데이터를 고가용성으로 저장하기 위한 서버 클러스터를 구축할 수 있습니다. 데이터 복제 또는 삭제 코드 청크는 미리 정의된 서로 다른 장애 도메인에 속하는 장치에 분산 저장됩니다. Ceph는 한 번에 여러 장치, 서버 노드, 랙 또는 사이트에 장애가 발생해도 데이터 손실 없이 데이터 서비스를 유지할 수 있습니다.


Ceph 소프트웨어 정의 스토리지

클라이언트는 Ceph의 분산 스토리지 알고리즘 CRUSH를 사용하여 읽고 쓰기 위해 모든 스토리지 장치와 직접 상호 작용합니다. 이 때문에 스토리지 시스템의 확장성을 제한하는 기존 HBA(호스트 버스 어댑터)의 병목 현상을 제거합니다. Ceph는 성능에 따라 엑사바이트 규모까지 용량을 선형으로 확장할 수 있습니다.

Ceph는 확장 가능하고 단일 실패 지점이 없도록 설계되었습니다. 모니터(MON), 오브젝트 스토리지 데몬(OSD) 및 메타데이터 서버(MDS)는 Ceph 클러스터의 세 가지 주요 데몬(Linux 프로세스)입니다. 일반적으로 Ceph 클러스터에는 이중화를 위해 3개 이상의 모니터 노드가 있습니다. 모니터는 클러스터 맵의 마스터 복사본을 유지 관리하므로 Ceph 클라이언트가 OSD 및 MDS와 직접 통신할 수 있습니다. 이러한 맵은 Ceph 데몬이 서로 조정하는 데 필요한 중요한 클러스터 상태입니다. 모니터는 데몬과 클라이언트 간의 인증 관리도 담당합니다. 홀수 수의 모니터는 쿼럼을 사용하여 클러스터 맵을 유지합니다. 이 알고리즘은 모니터의 단일 실패 지점을 피하고 합의가 유효함을 보장합니다. OSD는 Ceph의 오브젝트 스토리지 데몬입니다. 데이터를 저장하고 데이터 복제, 복구, 재조정하고 하트 비트에 대해 다른 OSD 데몬을 확인하여 Ceph 모니터에 일부 모니터링 정보를 제공합니다. 모든 스토리지 서버는 스토리지 장치당 하나씩 하나 이상의 OSD 데몬을 실행합니다. 일반적으로 이중화 및 고가용성을 위해 최소 3개의 OSD가 필요합니다. MDS 데몬은 Ceph 파일 시스템에 저장된 파일과 관련된 메타데이터를 관리하고 공유 Ceph Storage Cluster에 대한 액세스도 조정합니다. 중복성을 위해 여러 활성 MDS를 보유하고 각 MDS의 로드 균형을 조정할 수 있습니다. 공유 파일 시스템을 사용하려는 경우에만 하나 이상의 MDS(메타데이터 서버)가 필요합니다. 일반적으로 이중화 및 고가용성을 위해 최소 3개의 OSD가 필요합니다. MDS 데몬은 Ceph 파일 시스템에 저장된 파일과 관련된 메타데이터를 관리하고 공유 Ceph Storage Cluster에 대한 액세스도 조정합니다. 중복성을 위해 여러 활성 MDS를 보유하고 각 MDS의 로드 균형을 조정할 수 있습니다. 공유 파일 시스템을 사용하려는 경우에만 하나 이상의 MDS(메타데이터 서버)가 필요합니다. 일반적으로 이중화 및 고가용성을 위해 최소 3개의 OSD가 필요합니다. MDS 데몬은 Ceph 파일 시스템에 저장된 파일과 관련된 메타데이터를 관리하고 공유 Ceph Storage Cluster에 대한 액세스도 조정합니다. 중복성을 위해 여러 활성 MDS를 보유하고 각 MDS의 로드 균형을 조정할 수 있습니다. 공유 파일 시스템을 사용하려는 경우에만 하나 이상의 MDS(메타데이터 서버)가 필요합니다.

Ceph는 확장 가능한 스토리지입니다.

기존 스토리지 시스템에서 클라이언트는 복잡한 하위 시스템에 대한 단일 진입점인 중앙 집중식 구성 요소(예: 호스트 버스 어댑터 또는 게이트웨이)와 통신합니다. 중앙 집중식 컨트롤러는 단일 실패 지점을 도입할 뿐만 아니라 성능과 확장성 모두에 제한을 가합니다. 중앙 구성 요소가 다운되면 전체 시스템도 다운됩니다. Ceph 클라이언트는 모니터에서 최신 클러스터 맵을 가져오고 CRUSH 알고리즘을 사용하여 클러스터의 OSD를 계산합니다. 이 알고리즘을 통해 클라이언트는 중앙 컨트롤러를 거치지 않고 Ceph OSD와 직접 상호 작용할 수 있습니다. CRUSH 알고리즘은 단일 경로를 제거하여 확장성의 제한을 초래합니다. Ceph OSD 클러스터는 클라이언트에게 공유 스토리지 풀을 제공합니다. 더 많은 용량이나 성능이 필요할 때 새 OSD를 추가하여 풀을 확장할 수 있습니다. Ceph 클러스터의 성능은 OSD 수에 선형적으로 비례합니다. 다음 그림은 OSD 수를 늘리면 읽기/쓰기 IOPS가 증가하는 것을 보여줍니다.

기존 디스크 어레이는 RAID 컨트롤러를 사용하여 디스크 오류로부터 데이터를 보호합니다. RAID 기술이 발명되었을 때 하드 디스크 드라이브의 용량은 약 20MB였습니다. 오늘날 디스크 용량은 16TB에 달합니다. RAID 그룹에서 장애가 발생한 디스크를 재구축하는 데 일주일이 걸릴 수 있습니다. RAID 컨트롤러가 고장난 드라이브를 재구축하는 동안 두 번째 디스크가 동시에 고장날 가능성이 있습니다. 재구축에 더 오랜 시간이 걸리면 데이터 손실 가능성이 높아집니다.

Ceph는 클러스터의 다른 모든 정상 드라이브에 의해 장애가 발생한 디스크에서 손실된 데이터를 복구합니다. Ceph는 오류가 발생한 드라이브에 저장된 데이터만 복구합니다. 건강한 디스크가 더 많으면 복구 시간이 단축됩니다.

Config Ceph CRUSH 맵 및 규칙

UVS 관리자를 사용하여 Ceph CRUSH 맵 및 CRUSH 규칙을 정의합니다.




Ambedded - 시장에 출시된 전문 Ceph 스토리지 솔루션입니다.

2013년부터 대만에 위치한Ambedded Technology Co., LTD.60% CapEX 절감, 70% 더 적은 전력 소비 및 100% 확장 이점을 갖춘 ARM 기반 소프트웨어 정의 스토리지 어플라이언스를 제공하는 Ceph 스토리지 솔루션 제공업체입니다.

소프트웨어 정의 스토리지 설계 및 제조를 위해 Ambedded 팀은 고객이 통신, 의료, 군사, 에지 데이터 센터 및 HA 필수 엔터프라이즈 스토리지와 같은 다양한 산업에 ceph 솔루션을 채택하도록 지원한 광범위한 경험을 보유하고 있습니다.

Ambedded는 2013년부터 고객에게 고급 기술과 20년의 경험을 바탕으로 Ceph 스토리지 솔루션을 제공하고 있으며, Ambedded는 각 고객의 요구 사항이 충족되도록 보장합니다.