Ceph와 함께 작동하는 Veeam 백업 및 아카이브

Veeam Backup & Replication의 저장소로 Ceph Storage Appliance를 사용하는 이유와 방법

Veeam Backup & Replication의 저장소로 Ceph Storage Appliance를 사용하는 이유와 방법

Ceph와 함께 작동하는 Veeam 백업 및 아카이브

이 사례 연구에서는 Mars 400 ceph 스토리지 어플라이언스를 Veeam 백업 및 복제의 백업 리포지토리로 사용하는 방법을 설명합니다.
Ceph는 하나의 클러스터에서 오브젝트 스토리지, 블록 스토리지 및 POSIX 파일 시스템을 모두 지원합니다. 백업 요구 사항에 따라 고객은 다양한 스토리지 백업 전략의 요구 사항을 지원하기 위해 다양한 스토리지 프로토콜을 선택할 수 있습니다.
 
이 기사에서는 Ceph 블록 스토리지(Ceph RBD) 및 Ceph 파일 시스템(Cephfs)을 백업 리포지토리로 사용하고 Hyper-V 및 VMWare에서 가상 머신을 백업하는 백업 작업 기간을 비교합니다.


Veeam과 Ceph를 사용한 백업 솔루션 아키텍처

VMWare 및 Hyper-V에서 가상 머신을 백업하는 아키텍처는 유사합니다. Veeam은 데이터 이동기를 사용하여 소스 호스트에서 백업 리포지토리로 데이터를 전송합니다. 데이터 이동기는 프록시 서버와 저장소 서버에서 실행됩니다. Ceph를 백업 리포지토리의 백엔드 스토리지로 사용하려면 Linux 물리적 서버 또는 가상 머신에 RBD 또는 CephFS를 리포지토리 서버로 탑재할 수 있습니다. 

프록시 및 리포지토리 서버가 하이퍼바이저 클러스터 내부의 가상 머신인 경우 VM 디스크, 프록시 서버 및 리포지토리 서버 간의 네트워크 없는 고속 데이터 전송의 이점을 얻을 수 있습니다. 대형 하이퍼바이저 클러스터의 가장 좋은 구성은 각 VMWare 호스트에 프록시 서버 VM 하나와 저장소 서버 VM 하나를 배포하는 것입니다. 그렇지 않으면 모든 VMWare 호스트와 오프호스트 저장소 호스트에 하나의 백업 프록시 VM을 배포하여 프로덕션 VMWare에서 워크로드를 제거할 수 있습니다.

Ambedded Ceph 어플라이언스를 Veeam Backup 및 Replication의 리포지토리로 사용하는 방법에는 세 가지가 있습니다. CephFSRBD 블록 장치 를 온프레미스 백업 저장소로 사용할 수 있습니다. S3 객체 스토리지 는 원격 위치의 용량 계층으로 사용할 수 있습니다.

Ceph RBD 블록 장치와 CephFS 파일 시스템을 가상 머신 및 파일 백업을 위한 Veeam의 백업 리포지토리로 설정하는 방법은 이 페이지 끝부분의 백서에서 세부 정보를 찾을 수 있습니다.


Veeam proxy and repository servers are virtual machines inside the hypervisor cluster, with Mars 400 ceph storage to provide RBD and cephfs
a large hypervisor cluster is to deploy one proxy server VM and one repository server VM on each VMWare host, to have backup data to save into ceph RBD or cephfs

테스트 환경

세프 클러스터

  • 3개의 모니터, 20개의 OSD 및 1개의 MDS(메타데이터 서버)가 있는 3개의 Mars 400
  • 각 Ceph 데몬은 하나의 듀얼 코어 Arm A72 마이크로서버에서 실행됩니다.
  • 운영 체제: CentOS 7
  • Ceph 소프트웨어: 노틸러스 14.2.9 Arm64
  • 네트워크: Mars 400당 10Gb 네트워크 4개 

Veeam 백업 및 복제 10, 버전: 10.0.1.4854

Veeam 백업 서버

  • CPU: Intel Xeon E5-2630 2.3GHz 듀얼
  • DRAM: 64GB
  • 네트워크: 2x 10Gb sfp+ 본딩
  • 디스크: 시스템용 1TB, 볼륨용 256GB SATA3 SSD
  • 윈도우 서버 2019

 Veeam 프록시 서버

  • Veeam 백업 서버와 함께 배치

 리포지토리 서버

  • 가상 기기

◇ CPU: 4코어 2.3GHz

◇ DRAM: 8GB

◇ 네트워크: 브리지

◇ 디스크: 50GB 가상 디스크

◇ 운영체제: CentOS 7.8.2003

  • 베어메탈 서버

◇ CPU: 인텔 제온 X5650 2.67GHz 듀얼

◇ DRAM: 48GB

◇ 네트워크: 2포트 10Gb sfp+ 본딩

◇ 디스크: 시스템용 1TB

◇ OS : CentOS 7.6.1810

Hyper-V 호스트

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64GB

◇   네트워크: 2포트 10Gb sfp+ 본딩

◇   디스크: 시스템용 1TB

◇   윈도우 서버 2019

VMWare 호스트

◇   CPU: Intel Xeon E5-2630 2.3GHz DUAL

◇   DRAM: 64GB

◇   네트워크: 2포트 10Gb sfp+ 본딩

◇   디스크: 시스템용 1TB

◇   ESXi 6.5

네트워크: 10GbE 스위치

다양한 설정에 대한 벤치마크

다양한 백업 리포지토리의 백업 성능을 벤치마킹하기 위해 다른 백업 리포지토리와 3개의 백업 소스로 테스트를 설정했습니다. 

테스트에 사용하는 백업 소스는 서버의 SATA SSD 기반 볼륨, Hyper-V의 Windows VM, VMWare의 CentOS 7 VM 및 Windows VM입니다.

(1) SSD 드라이브의 볼륨 백업

표 1. SATA SSD가 있는 서버에서 볼륨 백업.

디스크 크기(처리된 데이터)237.9GB
소스에서 읽은 데이터200.1GB
중복 제거 및 압축 후 Ceph로 데이터 전송69.7GB
중복 제거1.3X
압축2.7X


표 2.

백업
저장소
지속 시간
(초)
출처
(%)
프록시
(%)
네트워크
(%)
목표
(%)
처리
속도(MB/s)
평균
데이터 쓰기
속도(MB/s)
Linux VM,
RBD-복제본 3
64683338421554110
Linux VM,
CephFS-복제본 3
5219725315564137
리눅스 VM,
RBD, EC
64582348324554111
리눅스 VM,
CephFS, EC
5369726274564133
리눅스 서버,
RBD, EC
526972116561136

참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나누어 계산합니다. 이 비율은 이러한 백업 작업에서 Ceph 클러스터의 워크로드를 나타냅니다.

(2) HDD의 Hyper-V에서 Windows 10 VM 백업

이 벤치마크에서는 SATA 하드 드라이브에 저장된 Hyper-V 인스턴스를 백업합니다. 이러한 작업의 처리 속도는 HDD 대역폭의 상한에 도달합니다. 또한 작업 기간의 99% 동안 로드가 사용 중이기 때문에 병목 현상이 소스에 있음을 알 수 있습니다. Veeam 백업 작업의 대상 Ceph 클러스터 워크로드는 가볍습니다. Ceph 클러스터는 작업 시간의 6~1%만 사용 중입니다.

이전 벤치마크와 비교하여 VM 백업의 처리 속도는 SSD 백업보다 훨씬 낮습니다. 이는 주로 VM 데이터가 하드 드라이브에 저장되기 때문입니다. 

표 3.

디스크 크기(HDD)127GB
소스에서 데이터 읽기37.9GB

중복 제거 및 압축 후 Ceph로 데이터 전송
21.4GB
중복 제거3.3배
압축1.8X


표 4. SATA3 HDD에 가상 머신 이미지 백업

백업
저장소
지속 시간
(초)
출처
(%)
프록시
(%)
네트워크
(%)
목표
(%)
처리
속도(MB/s)
평균
데이터 쓰기
속도(MB/s)
Linux VM,
RBD 볼륨, EC
363997614560
Linux VM,
CephFS 볼륨,
EC
3779972114258.1
Linux 서버,
RBD 볼륨, EC
3759962214058.4

참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나누어 계산합니다. 이 비율은 이러한 백업 작업에서 Ceph 클러스터의 워크로드를 나타냅니다.

(3) HDD의 ESXi에서 가상 머신 백업

이 테스트는 VMWare ESXi 6.5 호스트의 HDD에서 실행되는 CentOS 7 및 Windows 10 가상 머신을 4+2 삭제 코드 보호 기능이 있는 Ceph RBD가 지원하는 리포지토리에 백업합니다. 

표 5.

원천CentOS VM윈도우 10 VM
디스크 크기(HDD)40GB32GB
소스에서 데이터 읽기1.8GB12.9GB

중복 제거 및 압축 후 Ceph로 데이터 전송
966MB7.7GB
중복 제거22.1X2.5X
압축1.9X1.7X


표 6.

백업
소스
지속 시간
(초)
출처
(%)
프록시
(%)
네트워크
(%)
목표
(%)
처리
속도(MB/s)
평균
데이터 쓰기
속도(MB/s)
센트OS 7122991050888
윈도우 102449911519332

참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나누어 계산합니다. 이 비율은 이러한 백업 작업에서 Ceph 클러스터의 워크로드를 나타냅니다.

결론

테스트 결과 Ceph RBD와 CephFS는 비슷한 성능을 보였다. 이는 RBD 및 CephFS 성능 벤치마크에 대한 우리의 경험을 충족합니다. CephFS와 RBD의 특성을 비교하면 장단점이 있습니다. 여러 리포지토리 서버를 배포해야 하는 경우 하나의 호스트에만 Ceph RBD를 마운트할 수 있으므로 각 백업 리포지토리 서버에 대해 RBD 이미지를 생성해야 합니다. CephFS에 비해 메타데이터 서버가 필요하지 않으므로 RBD를 사용하는 것이 더 간단합니다. 생성 시 RBD 용량 크기를 할당해야 하므로 더 많은 공간이 필요할 때 용량 크기를 조정해야 합니다.

CephFS를 리포지토리로 사용하는 경우 Ceph 클러스터에 하나 이상의 메타데이터 서버(MDS)를 배포해야 합니다. 또한 고가용성을 위해 대기 메타데이터 서버가 필요합니다. Ceph RBD와 비교할 때 파일 시스템에 할당량을 줄 필요가 없습니다. 따라서 CephFS를 무제한 스토리지 풀로 취급할 수 있습니다.

이 사용 사례 데모에서 테스트는 각 백업 작업에서 하나의 VM만 백업합니다. 위의 테스트 보고서에 따르면 평균 데이터 쓰기 속도는 처리 속도, 데이터 중복 제거 및 압축 효율성과 관련이 있습니다. 소스 디스크가 빠를수록 백업 작업 기간이 줄어들고 처리 속도가 빨라집니다. 사용자의 인프라에 따라 사용자는 여러 동시 작업을 배포하여 다른 개체를 동시에 백업할 수 있습니다. Ceph 스토리지는 여러 동시 작업을 지원하는 데 매우 적합합니다. 

3x Ambedded Mars 400으로 구동되는 20x HDD OSD Ceph 클러스터는 4+2 삭제 코드 풀에 대해 최대 700MB/s의 집계 쓰기 처리량을 제공할 수 있습니다. 현재 백업 작업을 여러 개 배포하면 전체 백업 기간을 줄이는 이점이 있습니다. Ceph 클러스터의 최대 성능은 클러스터의 총 디스크 드라이브 수에 거의 선형적으로 비례합니다.

이 사용 사례에서는 S3 객체 스토리지를 백업 리포지토리로 사용하여 테스트하지 않았습니다. S3 오브젝트 스토리지는 Veeam Scale-Out 백업 저장소 및 NAS 백업을 위한 대상 아카이브 저장소의 용량 계층으로 사용할 수 있습니다. ceph 관리 웹 GUI인 Ambedded UVS 관리자를 사용하여 RADOS 게이트웨이를 쉽게 설정하고 오브젝트 스토리지 사용자를 쉽게 생성할 수 있습니다.

다운로드
Veeam Backup & Replication 백서를 위한 저장소로 Ceph 사용
Veeam Backup & Replication 백서를 위한 저장소로 Ceph 사용

Ceph RBD 블록 장치 및 CephFS 파일 시스템을 가상 머신 및 파일 백업을 위한 Veeam의 백업 저장소로 설정하는 방법

다운로드
관련 상품
세프 스토리지 어플라이언스 - Ceph Storage Appliance Mars 400 전면.
세프 스토리지 어플라이언스
마스 400PRO

UniVirStor는 ceph 기반 소프트웨어 정의 스토리지 어플라이언스입니다. Ambedded Ceph 스토리지 어플라이언스는 조정된 Ceph...

세부
Mars 400SES SUSE 엔터프라이즈 스토리지 어플라이언스 - Mars 400SES SUSE 엔터프라이즈 스토리지 6(노틸러스) 어플라이언스.
Mars 400SES SUSE 엔터프라이즈 스토리지 어플라이언스
화성 400SES

Mars400SES SUSE Enterprise Storage Appliance는 ARM 마이크로서버 하드웨어, SUSE Enterprise Storage 및 SUSE Linux Enterprise Server 구독 3년,...

세부

Ambedded - 시장에 출시된 전문 Ceph 스토리지 솔루션입니다.

2013년부터 대만에 위치한Ambedded Technology Co., LTD.60% CapEX 절감, 70% 더 적은 전력 소비 및 100% 확장 이점을 갖춘 ARM 기반 소프트웨어 정의 스토리지 어플라이언스를 제공하는 Ceph 스토리지 솔루션 제공업체입니다.

소프트웨어 정의 스토리지 설계 및 제조를 위해 Ambedded 팀은 고객이 통신, 의료, 군사, 에지 데이터 센터 및 HA 필수 엔터프라이즈 스토리지와 같은 다양한 산업에 ceph 솔루션을 채택하도록 지원한 광범위한 경험을 보유하고 있습니다.

Ambedded는 2013년부터 고객에게 고급 기술과 20년의 경험을 바탕으로 Ceph 스토리지 솔루션을 제공하고 있으며, Ambedded는 각 고객의 요구 사항이 충족되도록 보장합니다.