
Ceph와 함께 작동하는 Veeam 백업 및 아카이브
이 사례 연구에서는 Mars 400 ceph 스토리지 어플라이언스를 Veeam 백업 및 복제의 백업 리포지토리로 사용하는 방법을 설명합니다.
Ceph는 하나의 클러스터에서 객체 스토리지, 블록 스토리지 및 POSIX 파일 시스템을 모두 지원합니다. 백업 요구 사항에 따라 고객은 다양한 스토리지 백업 전략의 요구 사항을 지원하기 위해 다양한 스토리지 프로토콜을 선택할 수 있습니다.
이 기사에서는 Ceph 블록 스토리지(Ceph RBD) 및 Ceph 파일 시스템(Cephfs)을 백업 리포지토리로 사용하고 Hyper-V 및 VMWare에서 가상 머신을 백업하는 백업 작업 기간을 비교합니다.
Veeam과 Ceph를 사용한 백업 솔루션 아키텍처
VMWare 및 Hyper-V에서 가상 머신을 백업하는 아키텍처는 유사합니다. Veeam은 데이터 이동기를 사용하여 소스 호스트에서 백업 리포지토리로 데이터를 전송합니다. 데이터 이동기는 프록시 서버와 저장소 서버에서 실행됩니다. Ceph를 백업 리포지토리의 백엔드 스토리지로 사용하려면 Linux 물리적 서버 또는 가상 머신에 RBD 또는 CephFS를 리포지토리 서버로 탑재할 수 있습니다.
프록시 및 리포지토리 서버가 하이퍼바이저 클러스터 내부의 가상 머신인 경우 VM 디스크, 프록시 서버 및 리포지토리 서버 간에 네트워크가 필요 없는 고속 데이터 전송의 이점을 얻을 수 있습니다. 대규모 하이퍼바이저 클러스터의 가장 좋은 구성은 각 VMWare 호스트에 프록시 서버 VM 하나와 저장소 서버 VM 하나를 배포하는 것입니다. 그렇지 않으면 모든 VMWare 호스트와 오프호스트 저장소 호스트에 하나의 백업 프록시 VM을 배포하여 프로덕션 VMWare에서 워크로드를 제거할 수 있습니다.
Ambedded Ceph 어플라이언스를 Veeam Backup 및 Replication의 리포지토리로 사용하는 방법에는 세 가지가 있습니다. CephFS 및 RBD 블록 장치 를 온프레미스 백업 저장소로 사용할 수 있습니다. S3 객체 스토리지 는 원격 위치의 용량 계층으로 사용할 수 있습니다.
Ceph RBD 블록 장치와 CephFS 파일 시스템을 가상 머신 및 파일 백업을 위한 Veeam의 백업 리포지토리로 설정하는 방법은 이 페이지 끝에 있는 백서에서 세부 정보를 찾을 수 있습니다.
테스트 환경
- 3개의 모니터, 20개의 OSD 및 1개의 MDS(메타데이터 서버)가 있는 3개의 Mars 400
- 각 Ceph 데몬은 하나의 듀얼 코어 Arm A72 마이크로서버에서 실행됩니다.
- 운영 체제: CentOS 7
- Ceph 소프트웨어: 노틸러스 14.2.9 Arm64
- 네트워크: Mars 400당 10Gb 네트워크 4개
Veeam 백업 및 복제 10, 버전: 10.0.1.4854
Veeam 백업 서버
- CPU: Intel Xeon E5-2630 2.3GHz 듀얼
- DRAM: 64GB
- 네트워크: 2x 10Gb sfp+ 본딩
- 디스크: 시스템용 1TB, 볼륨용 256GB SATA3 SSD
- 윈도우 서버 2019
Veeam 프록시 서버
- Veeam 백업 서버와 함께 배치
리포지토리 서버
- 가상 기기
◇ CPU: 4코어 2.3GHz
◇ DRAM: 8GB
◇ 네트워크: 브리지
◇ 디스크: 50GB 가상 디스크
◇ 운영체제: CentOS 7.8.2003
- 베어메탈 서버
◇ CPU: Intel Xeon X5650 2.67GHz DUAL
◇ DRAM: 48GB
◇ 네트워크: 2포트 10Gb sfp+ 본딩
◇ 디스크: 시스템용 1TB
◇ OS : CentOS 7.6.1810
Hyper-V 호스트
◇ CPU: Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM: 64GB
◇ 네트워크: 2포트 10Gb sfp+ 본딩
◇ 디스크: 시스템용 1TB
◇ 윈도우 서버 2019
VM웨어 호스트
◇ CPU: Intel Xeon E5-2630 2.3GHz DUAL
◇ DRAM: 64GB
◇ 네트워크: 2포트 10Gb sfp+ 본딩
◇ 디스크: 시스템용 1TB
◇ ESXi 6.5
네트워크: 10GbE 스위치
다양한 설정에 대한 벤치마크
다양한 백업 리포지토리의 백업 성능을 벤치마킹하기 위해 다른 백업 리포지토리와 3개의 백업 소스로 테스트를 설정했습니다.
테스트에 사용하는 백업 소스는 서버의 SATA SSD 기반 볼륨, Hyper-V의 Windows VM, VMWare의 CentOS 7 VM 및 Windows VM입니다.
(1) SSD 드라이브의 볼륨 백업
표 1. SATA SSD가 있는 서버에서 볼륨 백업.
디스크 크기(처리된 데이터) | 237.9GB |
소스에서 읽은 데이터 | 200.1GB |
중복 제거 및 압축 후 Ceph로 데이터 전송 | 69.7GB |
중복 제거 | 1.3X |
압축 | 2.7X |
표 2.
백업 저장소 |
지속 시간 (초) |
출처 (%) |
프록시 (%) |
네트워크 (%) |
목표 (%) |
처리 속도(MB/s) |
평균 데이터 쓰기 속도(MB/s) |
Linux VM, RBD-복제본 3 |
646 | 83 | 33 | 84 | 21 | 554 | 110 |
Linux VM, CephFS-복제본 3 |
521 | 97 | 25 | 31 | 5 | 564 | 137 |
리눅스 VM, RBD, EC |
645 | 82 | 34 | 83 | 24 | 554 | 111 |
리눅스 VM, CephFS, EC |
536 | 97 | 26 | 27 | 4 | 564 | 133 |
리눅스 서버, RBD, EC |
526 | 97 | 21 | 16 | 삼 | 561 | 136 |
참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나누어 계산합니다. 이 비율은 이러한 백업 작업에서 Ceph 클러스터의 워크로드를 나타냅니다.
(2) HDD의 Hyper-V에서 Windows 10 VM 백업
이 벤치마크에서는 SATA 하드 드라이브에 저장된 Hyper-V 인스턴스를 백업합니다. 이러한 작업의 처리 속도는 HDD 대역폭의 상한에 도달합니다. 또한 작업 기간의 99% 동안 로드가 사용 중이기 때문에 병목 현상이 소스에 있음을 알 수 있습니다. Ceph 클러스터, 대상, Veeam 백업 작업의 워크로드가 가볍습니다. Ceph 클러스터는 작업 시간의 6~1%만 사용 중입니다.
이전 벤치마크와 비교하여 VM 백업의 처리 속도는 SSD 백업보다 훨씬 낮습니다. 이는 주로 VM 데이터가 하드 드라이브에 저장되기 때문입니다.
표 3.
디스크 크기(HDD) | 127GB |
소스에서 데이터 읽기 | 37.9GB |
중복 제거 및 압축 후 Ceph로 데이터 전송 |
21.4GB |
중복 제거 | 3.3X |
압축 | 1.8X |
표 4. SATA3 HDD에 가상 머신 이미지 백업
백업 저장소 |
지속 시간 (초) |
출처 (%) |
프록시 (%) |
네트워크 (%) |
목표 (%) |
처리 속도(MB/s) |
평균 데이터 쓰기 속도(MB/s) |
Linux VM, RBD 볼륨, EC |
363 | 99 | 7 | 삼 | 6 | 145 | 60 |
Linux VM, CephFS 볼륨, EC |
377 | 99 | 7 | 2 | 1 | 142 | 58.1 |
Linux 서버, RBD 볼륨, EC |
375 | 99 | 6 | 2 | 2 | 140 | 58.4 |
참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나누어 계산합니다. 이 비율은 이러한 백업 작업에서 Ceph 클러스터의 워크로드를 나타냅니다.
(3) HDD의 ESXi에서 가상 머신 백업
이 테스트는 VMWare ESXi 6.5 호스트의 HDD에서 실행되는 CentOS 7 및 Windows 10 가상 머신을 4+2 삭제 코드 보호 기능이 있는 Ceph RBD가 지원하는 리포지토리에 백업합니다.
표 5.
원천 | CentOS VM | 윈도우 10 VM |
디스크 크기(HDD) | 40GB | 32GB |
소스에서 데이터 읽기 | 1.8GB | 12.9GB |
중복 제거 및 압축 후 Ceph로 데이터 전송 |
966MB | 7.7GB |
중복 제거 | 22.1X | 2.5X |
압축 | 1.9X | 1.7X |
표 6.
백업 소스 |
지속 시간 (초) |
출처 (%) |
프록시 (%) |
네트워크 (%) |
목표 (%) |
처리 속도(MB/s) |
평균 데이터 쓰기 속도(MB/s) |
센트OS 7 | 122 | 99 | 10 | 5 | 0 | 88 | 8 |
윈도우 10 | 244 | 99 | 11 | 5 | 1 | 93 | 32 |
참고: 평균 데이터 쓰기 속도는 전송된 데이터를 기간으로 나누어 계산합니다. 이 비율은 이러한 백업 작업에서 Ceph 클러스터의 워크로드를 나타냅니다.
결론
테스트 결과 Ceph RBD와 CephFS는 비슷한 성능을 보였다. 이는 RBD 및 CephFS 성능 벤치마크에 대한 우리의 경험을 충족합니다. CephFS와 RBD의 특성을 비교하면 장단점이 있습니다. 여러 리포지토리 서버를 배포해야 하는 경우 하나의 호스트에만 Ceph RBD를 마운트할 수 있으므로 각 백업 리포지토리 서버에 대해 RBD 이미지를 생성해야 합니다. CephFS에 비해 메타데이터 서버가 필요하지 않기 때문에 RBD를 사용하는 것이 더 간단합니다. 생성 시 RBD 용량 크기를 할당해야 하므로 더 많은 공간이 필요할 때 용량 크기를 조정해야 합니다.
CephFS를 리포지토리로 사용하는 경우 Ceph 클러스터에 하나 이상의 메타데이터 서버(MDS)를 배포해야 합니다. 또한 고가용성을 위해 대기 메타데이터 서버가 필요합니다. Ceph RBD와 비교할 때 파일 시스템에 할당량을 줄 필요가 없습니다. 따라서 CephFS를 무제한 스토리지 풀로 취급할 수 있습니다.
이 사용 사례 데모에서 테스트는 각 백업 작업에서 하나의 VM만 백업합니다. 위의 테스트 보고서에 따르면 평균 데이터 쓰기 속도는 처리 속도, 데이터 중복 제거 및 압축 효율성과 관련이 있습니다. 소스 디스크가 빠를수록 백업 작업 기간이 줄어들고 처리 속도가 빨라집니다. 사용자의 인프라에 따라 사용자는 여러 동시 작업을 배포하여 다른 개체를 동시에 백업할 수 있습니다. Ceph 스토리지는 여러 동시 작업을 지원하는 데 매우 적합합니다.
3x Ambedded Mars 400으로 구동되는 20x HDD OSD Ceph 클러스터는 4+2 삭제 코드 풀에 대해 최대 700MB/s의 집계 쓰기 처리량을 제공할 수 있습니다. 현재 백업 작업을 여러 개 배포하면 전체 백업 기간을 줄이는 이점이 있습니다. Ceph 클러스터의 최대 성능은 클러스터의 총 디스크 드라이브 수에 거의 선형적으로 비례합니다.
이 사용 사례에서는 S3 객체 스토리지를 백업 리포지토리로 사용하여 테스트하지 않았습니다. S3 개체 스토리지는 Veeam Scale-Out 백업 저장소 및 NAS 백업을 위한 대상 아카이브 저장소의 용량 계층으로 사용할 수 있습니다. ceph 관리 웹 GUI인 Ambedded UVS 관리자를 사용하여 RADOS 게이트웨이를 쉽게 설정하고 오브젝트 스토리지 사용자를 쉽게 생성할 수 있습니다.
- 다운로드
-
Veeam Backup & Replication 백서를 위한 저장소로 Ceph 사용
Ceph RBD 블록 장치 및 CephFS 파일 시스템을 가상 머신 및 파일 백업을 위한 Veeam의 백업 저장소로 설정하는 방법
다운로드 - 관련 상품
-
Ceph 스토리지 어플라이언스
마스 400PRO
UniVirStor는 ceph 기반 소프트웨어 정의 스토리지 어플라이언스입니다. Ambedded Ceph 스토리지 어플라이언스는 조정된 Ceph...
세부Mars 400SES SUSE 엔터프라이즈 스토리지 어플라이언스
화성 400SES
Mars400SES SUSE Enterprise Storage Appliance는 ARM 마이크로서버 하드웨어, 3년 SUSE Enterprise Storage 및 SUSE Linux Enterprise Server 구독,...
세부