Veeam 백업 및 아카이브를 Ceph와 함께 사용하기 | 경제적인 Ceph 저장 관리 | Ambedded

Veeam 백업 및 복제의 저장소로 Ceph 스토리지 애플라이언스를 사용하는 이유와 방법 | Mars 400 - 고밀도 Ceph 저장

Veeam 백업 및 복제의 저장소로 Ceph 스토리지 애플라이언스를 사용하는 이유와 방법

Veeam 백업 및 아카이브를 Ceph와 함께 사용하기

이 사례 연구에서는 Mars 400 Ceph 스토리지 애플라이언스를 Veeam 백업 및 복제의 백업 저장소로 사용하는 방법을 설명합니다.
Ceph는 한 클러스터에서 객체 스토리지, 블록 스토리지 및 POSIX 파일 시스템을 모두 지원합니다. 백업 요구 사항에 따라 고객은 다양한 스토리지 백업 전략의 요구 사항을 지원하기 위해 다른 스토리지 프로토콜을 선택할 수 있습니다.
 
이 문서에서는 Ceph 블록 스토리지(Ceph RBD)와 Ceph 파일 시스템(Cephfs)을 백업 저장소로 사용하고, Hyper-V 및 VMWare에서 가상 머신을 백업하는 백업 작업 지속 시간을 비교합니다.


Veeam과 Ceph를 사용한 백업 솔루션 아키텍처

VMWare와 Hyper-V에서 가상 머신의 백업 아키텍처는 유사합니다. Veeam은 데이터 이동자를 사용하여 소스 호스트에서 백업 저장소로 데이터를 전송합니다. 데이터 이동자는 프록시 서버와 저장소 서버에서 실행됩니다. 백업 저장소의 백엔드 스토리지로 Ceph를 사용하려면 Linux 물리 서버나 가상 머신에 RBD 또는 CephFS를 마운트하여 저장소 서버로 사용할 수 있습니다.

프록시 및 저장소 서버가 하이퍼바이저 클러스터 내의 가상 머신인 경우, VM 디스크, 프록시 서버 및 저장소 서버 간에 네트워크 없이 고속 데이터 전송의 이점을 얻을 수 있습니다. 대형 하이퍼바이저 클러스터의 최적 구성은 각 VMWare 호스트에 하나의 프록시 서버 VM과 하나의 저장소 서버 VM을 배치하는 것입니다. 그렇지 않으면, 각 VMWare 호스트에 대해 하나의 백업 프록시 VM을 배포하고 하나의 오프-호스트 저장소 호스트를 배치하여 프로덕션 VMWare의 작업 부하를 제거할 수 있습니다.

Ambedded Ceph 앱라이언스를 Veeam Backup and Replication의 저장소로 사용하는 세 가지 방법이 있습니다.CephFSRBD 블록 장치는 온프레미스 백업 저장소로 사용할 수 있습니다.S3 객체 저장소는 원격 위치의 용량 계층으로 사용할 수 있습니다.

Ceph RBD 블록 장치 및 CephFS 파일 시스템을 Veeam의 백업 저장소로 설정하는 방법에 대한 자세한 내용은 이 페이지의 맨 끝에 있는 백서에서 찾을 수 있습니다.


Veeam 프록시 및 저장소 서버는 하이퍼바이저 클러스터 내의 가상 머신으로, Mars 400 ceph 스토리지를 사용하여 RBD 및 cephfs를 제공합니다.
대형 하이퍼바이저 클러스터에서는 각 VMWare 호스트에 하나의 프록시 서버 VM과 하나의 저장소 서버 VM을 배치하여 백업 데이터를 ceph RBD 또는 cephfs에 저장합니다.

테스트 환경

ceph 클러스터

  • 3개의 Mars 400, 3개의 모니터, 20개의 OSD 및 1개의 MDS(메타데이터 서버)
  • 각 Ceph 데몬은 하나의 듀얼 코어 Arm A72 마이크로서버에서 실행됩니다.
  • 운영 체제: CentOS 7
  • Ceph 소프트웨어: Nautilus 14.2.9 Arm64
  • 네트워크: Mars 400당 4개의 10Gb 네트워크 

Veeam Backup & Replication 10, 버전: 10.0.1.4854

Veeam 백업 서버

  • CPU: 인텔 제온 E5-2630 2.3GHz 듀얼
  • DRAM: 64GB
  • 네트워크: 2x 10Gb sfp+ 본딩
  • 디스크: 시스템용 1TB, 볼륨용 256GB SATA3 SSD
  • 윈도우 서버 2019

 Veeam 프록시 서버

  • Veeam 백업 서버와 공유 위치

 리포지토리 서버

  • 가상 머신

◇ CPU: 4 코어 2.3GHz

◇  DRAM: 8GB

◇  네트워크: 브리지

◇  디스크: 50GB 가상 디스크

◇  운영체제: CentOS 7.8.2003

  • 베어메탈 서버

◇  CPU: 인텔 제온 X5650 2.67GHz 듀얼

◇  DRAM: 48GB

◇  네트워크: 2포트 10Gb sfp+ 본딩

◇  디스크: 1TB 시스템용

◇  운영체제: CentOS 7.6.1810

하이퍼-V 호스트

◇  CPU: 인텔 제온 E5-2630 2.3GHz 듀얼"

◇  DRAM: 64GB"

◇  네트워크: 2포트 10Gb sfp+ 본딩

◇  디스크: 시스템용 1TB

◇  윈도우 서버 2019

VMWare 호스트

◇  CPU: 인텔 제온 E5-2630 2.3GHz 듀얼"

◇  DRAM: 64GB"

◇  네트워크: 2포트 10Gb sfp+ 본딩

◇  디스크: 시스템용 1TB

◇  ESXi 6.5

네트워크: 10GbE 스위치

다양한 설정에서의 벤치마크

다양한 백업 저장소의 백업 성능을 벤치마크하기 위해, 우리는 다른 백업 저장소와 세 개의 백업 소스로 테스트를 설정했습니다.

테스트에 사용되는 백업 소스는 서버의 SATA SSD 기반 볼륨, Hyper-V의 Windows 가상 머신, 그리고 CentOS 7 가상 머신과 VMWare의 Windows 가상 머신입니다.

(1) SSD 드라이브의 볼륨 백업

표 1. SATA SSD가 장착된 서버의 볼륨 백업.

디스크 크기 (데이터 처리량)237.9GB
소스에서 읽은 데이터200.1GB
중복 제거 및 압축 후 Ceph로 데이터 전송 완료69.7GB
중복 제거1.3배
압축2.7배


표 2.

백업
저장소
지속 시간
(초)
원본
(%)
프록시
(%)
네트워크
(%)
대상
(%)
처리 중
속도 (MB/s)
평균
데이터 쓰기
속도 (MB/s)
리눅스 VM,
RBD-레플리카 3
64683338421554110
리눅스 VM,
CephFS-레플리카 3
5219725315564137
리눅스 VM,
RBD, EC
64582348324554111
리눅스 VM,
CephFS, EC
5369726274564133
리눅스 서버,
RBD, EC
5269721163561136

참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나눈 값입니다. 이 속도는 백업 작업에서 Ceph 클러스터의 작업량을 나타냅니다.

(2) HDD에 Hyper-V에서 Windows 10 가상 머신 백업

이 벤치마크에서는 SATA 하드 드라이브에 저장된 Hyper-V 인스턴스를 백업합니다. 이 작업들의 처리 속도는 HDD 대역폭의 상한에 도달합니다. 우리는 또한 병목 현상이 소스에서 발생하는 것을 알 수 있습니다. 왜냐하면 작업 기간의 99% 동안 그들의 부하가 바쁘기 때문입니다. Ceph 클러스터, 대상, Veeam 백업 작업으로부터의 워크로드는 가벼워요. Ceph 클러스터는 작업 시간의 6%에서 1%만 바쁩니다.

이전 벤치마크와 비교하여 VM 백업의 처리 속도는 SSD 백업보다 훨씬 낮습니다.이는 주로 VM 데이터가 하드 드라이브에 저장되기 때문입니다.

테이블 3.

디스크 크기 (HDD)127GB
소스에서 읽은 데이터37.9GB
데이터가 Ceph로 전송되었습니다.
중복 제거 및 압축
21.4GB
중복 제거3.3배
압축1.8배


표 4. SATA3 HDD에 가상 머신 이미지 백업

백업
저장소
지속 시간
(초)
원본
(%)
프록시
(%)
네트워크
(%)
대상
(%)
처리 중
속도 (MB/s)
평균
데이터 쓰기
속도 (MB/s)
리눅스 VM,
RBD 볼륨, EC
3639973614560
리눅스 VM,
CephFS 볼륨,
EC
3779972114258.1
리눅스 서버,
RBD 볼륨, EC
3759962214058.4

참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나눈 값입니다. 이 속도는 백업 작업에서 Ceph 클러스터의 작업량을 나타냅니다.

(3)ESXi에서 HDD에 가상 머신 백업

이 테스트는 VMWare ESXi 6.5 호스트의 HDD에서 실행되는 CentOS 7 및 Windows 10 가상 머신을 Ceph RBD로 지원되는 저장소에 4+2 손실 보정 코드 보호로 백업합니다.

표 5.

원본CentOS VM윈도우즈 10 VM
디스크 크기 (HDD)40GB32GB
소스에서 읽은 데이터1.8GB12.9GB
데이터가 Ceph로 전송되었습니다.
중복 제거 및 압축
966MB7.7GB
중복 제거22.1X2.5X
압축1.9X1.7X


표 6.

백업
원본
지속 시간
(초)
원본
(%)
프록시
(%)
네트워크
(%)
대상
(%)
처리 중
속도 (MB/s)
평균
데이터 쓰기
속도 (MB/s)
CentOS 7122991050888
Windows 102449911519332

참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나눈 값입니다. 이 속도는 백업 작업에서 Ceph 클러스터의 작업량을 나타냅니다.

결론

테스트 결과에 따르면, Ceph RBD와 CephFS는 유사한 성능을 가지고 있습니다. 이는 RBD 및 CephFS 성능 기준에 대한 우리의 경험과 일치합니다. CephFS와 RBD의 특징을 비교하면, 각각의 장단점이 있습니다. 여러 개의 저장소 서버를 배포해야 하는 경우, 각 백업 저장소 서버에 대해 RBD 이미지를 생성해야 합니다. Ceph RBD는 하나의 호스트에만 마운트할 수 있기 때문입니다. CephFS와 비교하여 RBD를 사용하는 것은 메타데이터 서버가 필요하지 않아 더 간단합니다. 생성 시 RBD 용량 크기를 할당해야 하므로, 공간이 더 필요할 때 용량을 조정해야 합니다.

CephFS를 저장소로 사용하는 경우, Ceph 클러스터에 적어도 하나의 메타데이터 서버(MDS)를 배포해야 합니다. 높은 가용성을 위해 대기 중인 메타데이터 서버도 필요합니다. Ceph RBD와 비교하여 파일 시스템에 할당량을 지정할 필요가 없습니다. 따라서 CephFS를 무제한 저장소 풀로 다룰 수 있습니다.

이 사용 사례 시연에서는 각 백업 작업에서 하나의 가상 머신만 백업합니다. 위의 테스트 보고서에 따르면, 평균 데이터 쓰기 속도는 처리 속도와 데이터 중복 제거 및 압축 효율성과 관련이 있습니다. 더 빠른 소스 디스크는 백업 작업 기간을 줄이고 처리 속도를 높입니다. 사용자의 인프라에 따라 여러 동시 작업을 배치하여 동시에 다른 개체를 백업할 수 있습니다. Ceph 스토리지는 여러 동시 작업을 지원하는 데 매우 우수한 성능을 발휘합니다.

3x Ambedded Mars 400로 구동되는 20배 HDD OSD Ceph 클러스터는 4+2 소거 코드 풀에 대해 최대 700MB/s의 집계 쓰기 처리량을 제공할 수 있습니다. 여러 개의 현재 백업 작업을 배치하면 전체 백업 시간을 줄일 수 있는 이점을 얻을 수 있습니다. Ceph 클러스터의 최대 성능은 클러스터 내 전체 디스크 드라이브 수에 거의 선형적으로 비례합니다.

이 사용 사례에서는 백업 저장소로 S3 객체 저장소를 사용하지 않았습니다. S3 객체 저장소는 Veeam Scale-Out 백업 저장소의 용량 계층 및 NAS 백업의 대상 아카이브 저장소로 사용할 수 있습니다. Ambedded UVS 관리자, ceph 관리 웹 GUI를 사용하여 쉽게 RADOS 게이트웨이를 설정하고 객체 저장소 사용자를 만들 수 있습니다.

다운로드
Veeam Backup & Replication을 위한 저장소로 Ceph 사용하기 화이트 페이퍼
Veeam Backup & Replication을 위한 저장소로 Ceph 사용하기 화이트 페이퍼

Ceph RBD 블록 장치 및 CephFS 파일 시스템을 Veeam의 가상 머신 및 파일을 백업하는 백업 저장소로 설정하는 방법

다운로드
관련 제품
Mars 400PRO Ceph 저장소 장치 - Ceph 저장소 장치 Mars 400 전면.
Mars 400PRO Ceph 저장소 장치
Mars 400PRO

Mars 400 Ceph Appliance는 고용량 클라우드 네이티브 데이터 저장 요구를 충족하기 위해 설계되었습니다. 저렴한 비용 당 TB를...

세부

Veeam 백업 및 아카이브를 Ceph와 함께 사용하기 | ARM 마이크로서버 Ceph 저장 솔루션 | Ambedded

2013년부터 대만에 위치한 Ambedded Technology Co., LTD.는 블록 및 객체 저장소 솔루션 제공 업체입니다. 주요 데이터 저장 관리에는 Ceph 저장 기술, ARM 서버 통합, 소프트웨어 정의 저장소, 기업 저장소 최적화, Ceph 장치 비용 절감, 저장 관리 소프트웨어 및 블록 및 객체 저장소 솔루션이 포함됩니다. 그들은 데이터 센터에서 고효율 저장 용량을 갖춘 확장 가능한 저장 시스템과 전문적인 Ceph 지원을 제공합니다.

Ambedded는 ARM 마이크로서버에서 최첨단 Ceph 스토리지 솔루션을 제공하며, 기업용 스토리지 시스템을 최적화하려는 B2B 구매자를 위해 맞춤화되었습니다. 저희 턴키 Ceph 장치는 총 소유 비용(TCO)을 줄이고 저장 관리를 간소화하여 블록, 파일 시스템 및 객체 저장을 통합 플랫폼에서 지원합니다. 혁신과 고객 지원에 헌신하는 Ambedded는 확장 가능하고 효율적인 SUSE Enterprise Storage Appliance 솔루션의 신뢰할 수 있는 파트너입니다. 귀사의 비즈니스에서 Ceph 기술의 모든 잠재력을 활용하기 위해 원활한 통합과 전문적인 지원을 경험해보세요.

'Ambedded'는 2013년부터 확장 가능한 저장 시스템과 경제적인 Ceph 저장 관리를 고객에게 제공해 왔으며, 고급 기술과 20년의 경험을 바탕으로 각 고객의 요구 사항을 충족시킵니다.