Ceph 캐시 티어링은 어떻게 수행되나요? | ARM 마이크로서버 Ceph 스토리지 솔루션 | Ambedded

Ceph 캐시 티어링은 어떻게 수행되나요? | 사용자 친화적인 Ceph 관리 인터페이스

Ceph 캐시 티어링은 어떻게 수행되나요?

Ceph 캐시 티어링은 어떻게 수행되나요?

소개:
이 게시물에서는 Ceph 캐시 티어링이 NVMe 풀을 백업하여 HDD 풀의 성능을 향상시킬 수 있는지를 보여주는 벤치마크 테스트를 공유합니다.


14 Apr, 2023 Ambedded
Ceph 캐시 티어란 무엇이며 어떻게 작동합니까?

Ceph 캐시 티어는 더 느린 저장 장치의 캐시로 더 빠른 저장 장치를 사용할 수 있게 합니다. 이는 빠른/비싼 저장 장치 (예: NVMe SSD)로 구성된 캐시 계층으로 작동하도록 구성된 저장 장치 풀을 생성하고, 이를 경제적인 저장 계층으로 작동하도록 구성된 이레이저 코드 또는 느린 장치 (예: HDD)의 뒷받침 풀로 구성하는 것을 포함합니다. 캐시 계층은 백업 계층에서 자주 액세스되는 데이터를 저장하고 클라이언트로부터 읽기 및 쓰기 요청을 처리합니다. 캐시 티어링 에이전트는 일정한 정책에 따라 캐시 티어에서 주기적으로 객체를 플러시하거나 제거합니다.

Ceph 캐시 티어 데모

과거에는 캐시 티어 저장 장치로 SATA SSD를 사용할 때 캐시 티어링을 사용하여 성능 향상이 미미했습니다. 하지만 최근 몇 년 동안 NVMe SSD의 가격이 많이 하락하였고, NVMe SSD의 성능은 HDD보다 훨씬 빠릅니다. HDD 풀에 NVMe SSD를 캐시 티어로 사용하는 것이 큰 도움이 될 수 있는지 알고 싶습니다.

NVMe 캐시 티어의 효과를 테스트하기 위해 HDD 기반 스토리지 풀의 성능을 향상시키는지 확인하는 테스트를 설정했습니다.

클러스터 설정
NVME 호스트들3 x Ambedded Mars500 Ceph Appliances
각각의 Mars 500 장비의 사양
CPU1x Ampere Altra Arm 64-Core 3.0 Ghz
메모리96 GiB DDR4
네트워크2포트 25Gbps Mellanox ConnectX-6
OSD 드라이브들8 x 마이크론 7400 960GB


HDD 호스트들3 x Ambedded Mars400 Ceph Appliances
각각의 Mars 400 장치의 사양
CPU8개의 노드, 쿼드-코어 Arm64 1.2 GHz
메모리노드 당 4GiB. 장치 당 32 GiB
네트워크노드 당 2 x 2.5Gbps. 인 채시스 스위치를 통한 2x 10 Gb 업링크.
OSD 드라이브들8 x 6 TB Seagate Exos HDD
Ceph 클러스터 정보
  • NVMe SSD에 24 x OSD (3x Ambedded Mars500 장비)
  • HDD에 24x OSD (3x Ambedded Mars400 장비)
  • HDD 및 NVMe 서버는 분리된 CRUSH 루트에 위치해 있습니다.
테스트 클라이언트
  • 물리 서버 2대. 25Gb 네트워크 카드 2개
  • 각 서버는 7대의 VM을 실행합니다.
  • 각 VM은 4개의 코어와 8GB 메모리를 가지고 있습니다.
캐시 티어를 Ambedded UVS 매니저로 설정합니다

 1. HDD osd를 사용하여 기본 풀을 생성하세요.

 2. NVMe SSD osd를 사용하여 NVMe 풀을 생성합니다.

 3. HDD 풀의 캐시 티어로 NVMe 풀을 추가하세요.
      기본 캐시 티어 설정:

  • 캐시 모드: 쓰기 반영
  • hit_set_count = 12
  • hit_set_period = 14400초 (4시간)
  • target_max_byte = 2 테라바이트
  • target_max_objects = 100만 개
  • min_read_recency_for_promote & min_write_recency_for_promote = 2
  • cache_target_dirty_ratio = 0.4
  • cache_target_dirty_high_ratio = 0.6
  • cache_target_full_ratio = 0.8
  • cache_min_flush_age = 600초
  • cache_min_evict_age = 1800 초.

캐시 티어를 추가하기 전과 후에 HDD 풀을 테스트했으며, 최대 14개의 클라이언트를 사용하여 테스트 부하를 생성했습니다. 각 클라이언트는 fio 테스트를 위해 RBD를 마운트했습니다. 테스트 로드는 한 클라이언트로 시작하여 각 테스트 작업이 완료된 후 클라이언트 수를 증가시켰습니다. 각 테스트 주기는 5분 동안 지속되었으며 Jenkins에 의해 자동으로 제어되었습니다. 테스트 작업의 성능은 모든 클라이언트의 결과의 합이었습니다. 캐시 티어링을 테스트하기 전에, 우리는 RBD에 데이터를 쓰고 캐시 티어 풀이 ceph 캐시 대상 전체 비율 (0.8)을 초과하여 채웠습니다.

다이어그램은 NVMe 캐시 풀을 추가한 후 순수 HDD 풀의 성능이 크게 향상되었음을 보여줍니다.

캐시 티어 테스트 중에는 ceph osd pool stats 명령을 사용하여 풀 통계를 관찰했습니다. 캐시 및 기본 풀에서는 플러싱, 제거 및 프로모션 활동이 있었습니다. 캐시 티어 테스트 중에는 다른 시간에 대한 풀 통계를 캡처했습니다.

데이터가 캐시에 기록되었습니다
풀 캐시 ID 84
 클라이언트 IO 21 MiB/s 쓰기, 0 op/s 읽기, 5.49k op/s 쓰기

풀 mars400_rbd ID 86
 아무 일도 일어나지 않고 있습니다

캐시가 프로모션 및 제거를 수행 중이었습니다
풀 캐시 ID 84
 클라이언트 I/O 42 MiB/s 쓰기, 0 op/s 읽기, 10.79k op/s 쓰기
 캐시 티어 I/O 179 MiB/s 제거, 17 op/s 프로모션

풀 mars400_rbd ID 86
 클라이언트 I/O 0 B/s 읽기, 1.4 MiB/s 쓰기, 18 op/s 읽기, 358 op/s 쓰기

캐시가 플러싱되었습니다
풀 캐시 ID 84
 클라이언트 IO 3.2 GiB/s rd, 830 op/s rd, 0 op/s wr
 캐시 티어 IO 238 MiB/s flush, 14 op/s promote, 1 PGs flushing

풀 mars400_rbd ID 86
 클라이언트 IO 126 MiB/s rd, 232 MiB/s wr, 44 op/s rd, 57 op/s wr

PG was evicting
풀 캐시 ID 84
 클라이언트 IO 2.6 GiB/s rd, 0 B/s wr, 663 op/s rd, 0 op/s wr
 캐시 티어 IO 340 MiB/s flush, 2.7 MiB/s evict, 21 op/s promote, 1 PGs evicting (full)

풀 mars400_rbd ID 86
 클라이언트 IO 768 MiB/s rd, 344 MiB/s wr, 212 op/s rd, 86 op/s wr

PG 플러싱 및 클라이언트 IO는 기본 풀로 직접 전송됩니다.(클라이언트가 데이터를 쓰고 있습니다)
풀 캐시 ID 84
 클라이언트 IO 0 B/s 쓰기, 0 op/s 읽기, 1 op/s 쓰기
 캐시 티어 IO 515 MiB/s 플러시, 7.7 MiB/s 제거, 1 PGs 플러시 중

풀 mars400_rbd ID 86
 클라이언트 IO 613 MiB/s 쓰기, 0 op/s 읽기, 153 op/s 쓰기

연속적인 테스트 이후 클러스터를 몇 시간 동안 쉬게 하고 4 kB 랜덤 쓰기 테스트를 다시 수행했습니다. 우리는 훨씬 더 좋은 성능을 얻었습니다. 이는 새로운 쓰기를 위해 캐시 공간이 해제되었기 때문입니다.
 
이 테스트를 통해 우리는 HDD 풀의 캐시 티어로 NVMe 풀을 사용하면 상당한 성능 향상을 얻을 수 있다는 것을 확신합니다.
 
캐시 티어링의 성능은 보장할 수 없습니다. 성능은 해당 시점의 캐시 히트 조건에 따라 달라지며, 동일한 구성과 작업 부하로 반복 테스트를 수행해도 동일한 성능을 얻을 수 없습니다.
 
응용 프로그램이 일관된 성능을 필요로 하는 경우 순수한 NMMe SSD 풀을 사용하십시오.

관련 제품
Mars500 NVME 모두 플래시 Ceph 스토리지 장치 - 고성능 사용 사례를 위한 8개의 NVME OSD가 있는 플래시 Ceph 저장소 장치
Mars500 NVME 모두 플래시 Ceph 스토리지 장치
Mars 500

Mars 500 Ceph Appliance는 고성능 클라우드 네이티브 데이터 저장소 요구를 충족하기 위해 설계되었습니다. 최신 NVMe 플래시...

세부
Mars 400PRO Ceph 저장소 장치 - Ceph 저장소 장치 Mars 400 전면.
Mars 400PRO Ceph 저장소 장치
Mars 400PRO

Mars 400 Ceph Appliance는 고용량 클라우드 네이티브 데이터 저장 요구를 충족하기 위해 설계되었습니다. 저렴한 비용 당 TB를...

세부

Ceph 스토리지 장치

Mars 400 Ceph 스토리지 장치 HW & SW 데이터시트.

Ceph 캐시 티어링은 어떻게 수행되나요? | UVS 매니저 - Ceph 배포 간편화 | Ambedded

2013년부터 대만에 위치한 Ambedded Technology Co., LTD.는 블록 및 객체 저장소 솔루션 제공 업체입니다. 주요 데이터 저장 관리에는 Ceph 저장 기술, ARM 서버 통합, 소프트웨어 정의 저장소, 기업 저장소 최적화, Ceph 장치 비용 절감, 저장 관리 소프트웨어 및 블록 및 객체 저장소 솔루션이 포함됩니다. 그들은 데이터 센터에서 고효율 저장 용량을 갖춘 확장 가능한 저장 시스템과 전문적인 Ceph 지원을 제공합니다.

Ambedded는 ARM 마이크로서버에서 최첨단 Ceph 스토리지 솔루션을 제공하며, 기업용 스토리지 시스템을 최적화하려는 B2B 구매자를 위해 맞춤화되었습니다. 저희 턴키 Ceph 장치는 총 소유 비용(TCO)을 줄이고 저장 관리를 간소화하여 블록, 파일 시스템 및 객체 저장을 통합 플랫폼에서 지원합니다. 혁신과 고객 지원에 헌신하는 Ambedded는 확장 가능하고 효율적인 SUSE Enterprise Storage Appliance 솔루션의 신뢰할 수 있는 파트너입니다. 귀사의 비즈니스에서 Ceph 기술의 모든 잠재력을 활용하기 위해 원활한 통합과 전문적인 지원을 경험해보세요.

'Ambedded'는 2013년부터 확장 가능한 저장 시스템과 경제적인 Ceph 저장 관리를 고객에게 제공해 왔으며, 고급 기술과 20년의 경험을 바탕으로 각 고객의 요구 사항을 충족시킵니다.