Veeam резервное копирование и архивирование для работы с Ceph | Эффективное управление хранением Ceph | Ambedded

Почему и как использовать хранилище данных Ceph в качестве репозиториев резервного копирования и репликации Veeam | Mars 400 - Плотное хранение Ceph

Почему и как использовать хранилище данных Ceph в качестве репозиториев резервного копирования и репликации Veeam

Veeam резервное копирование и архивирование для работы с Ceph

В этом кейс-стади объясняется, как использовать хранилище данных Mars 400 ceph в качестве резервных репозиториев для резервного копирования и репликации Veeam.
Ceph поддерживает объектное хранилище, блочное хранилище и файловую систему POSIX в одном кластере. В соответствии с требованиями резервного копирования, клиенты могут выбирать различные протоколы хранения для поддержки различных стратегий резервного копирования.
 
В этой статье мы используем блочное хранилище Ceph (Ceph RBD) и файловую систему Ceph (Cephfs) в качестве резервных репозиториев и сравниваем продолжительность резервного копирования виртуальных машин из Hyper-V и VMWare.


Архитектура резервного копирования с использованием Veeam и Ceph

Архитектура резервного копирования виртуальных машин на VMWare и Hyper-V схожа. Veeam использует средства передачи данных для передачи данных с исходных хостов на резервные репозитории. Средства передачи данных работают на прокси-сервере и сервере репозитория. Чтобы использовать Ceph в качестве хранилища резервных копий, вы можете подключить RBD или CephFS к физическому серверу или виртуальной машине с Linux в качестве сервера репозитория.

Если прокси-серверы и серверы репозитория являются виртуальными машинами внутри кластера гипервизора, вы можете получить преимущество без сети высокоскоростной передачи данных между диском виртуальной машины, прокси-сервером и сервером репозитория. Наилучшая конфигурация большого кластера гипервизора - развертывание одной виртуальной машины прокси-сервера и одной виртуальной машины сервера репозитория на каждом хосте VMWare. В противном случае вы можете развернуть одну резервную виртуальную машину прокси на каждом хосте VMWare и один хост репозитория вне хоста, чтобы снять нагрузку с вашей производственной среды VMWare.

Существует три способа использования Ambedded Ceph-аппарата в качестве репозиториев для Veeam Backup and Replication.CephFS и блочные устройства RBD могут быть использованы в качестве резервного хранилища на месте.Хранилище объектов S3 может быть использовано в качестве уровня емкости для удаленного местоположения.

Для настройки блочного устройства Ceph RBD и файловой системы CephFS в качестве резервного хранилища Veeam для резервного копирования виртуальных машин и файлов вы можете найти подробности в белой бумаге в конце этой страницы.


Прокси-серверы и серверы репозитория Veeam являются виртуальными машинами внутри кластера гипервизора, с хранилищем Mars 400 ceph для предоставления RBD и cephfs
для развертывания большого кластера гипервизора необходимо разместить один сервер прокси VM и один сервер репозитория VM на каждом хосте VMWare, чтобы иметь возможность сохранять резервные данные в ceph RBD или cephfs

Тестовая среда

Кластер Ceph

  • Три Mars 400 с 3-мя мониторами, 20 OSD и 1-м MDS (сервером метаданных)
  • Каждый демон Ceph работает на одном двухъядерном микросервере Arm A72
  • Операционная система: CentOS 7
  • Ceph-программное обеспечение: Nautilus 14.2.9 Arm64
  • Сеть: 4x 10 Гбит/с сеть на каждом Mars 400 

Veeam Backup & Replication 10, Версия: 10.0.1.4854

Сервер резервного копирования Veeam

  • ЦПУ: Intel Xeon E5-2630 2.3GHz ДУАЛЬНЫЙ
  • ОЗУ: 64GB
  • Сеть: 2x 10Gb sfp+ связывание
  • Диск: 1TB для системы, 256GB SATA3 SSD для объема
  • Windows Server 2019

 Veeam Прокси Сервер

  • совместное размещение с Veeam Сервером Резервного Копирования

 Сервер Репозитория

  • Виртуальная Машина

◇  ЦПУ: 4 ядра 2.3GHz

◇  ОЗУ: 8 ГБ

◇  Сеть: мост

◇  Диск: 50 ГБ виртуальный диск

◇  ОС: CentOS 7.8.2003

  • Выделенный сервер

◇  Процессор: Intel Xeon X5650 2.67 ГГц DUAL

◇  ОЗУ: 48 ГБ

◇  Сеть: 2-портовое 10 Гб sfp+ соединение

◇  Диск: 1 ТБ для системы

◇  ОС: CentOS 7.6.1810

Хост Hyper-V

◇  Процессор: Intel Xeon E5-2630 2.3 ГГц ДВУХЯДЕРНЫЙ

◇  ОЗУ: 64 ГБ

◇  Сеть: 2-портовая связка 10Gb sfp+

◇  Диск: 1ТБ для системы

◇  Windows сервер 2019

Хост VMWare

◇  Процессор: Intel Xeon E5-2630 2.3 ГГц ДВУХЯДЕРНЫЙ

◇  ОЗУ: 64 ГБ

◇  Сеть: 2-портовая связка 10Gb sfp+

◇  Диск: 1ТБ для системы

◇  ESXi 6.5

Сеть: коммутатор 10GbE

Тестирование на различных настройках

Для тестирования производительности резервного копирования различных резервных хранилищ мы настроили тесты с различными резервными хранилищами и тремя источниками резервного копирования.

Источники резервного копирования, которые мы использовали для тестов, - это том на основе SATA SSD на сервере, виртуальная машина Windows Hyper-V и виртуальная машина CentOS 7 и виртуальная машина Windows VMWare.

(1) Резервное копирование тома на SSD-диске

Таблица 1. Резервное копирование тома с сервера с использованием SATA SSD.

Размер диска (обработанные данные)237.9 ГБ
Данные, прочитанные с источника200.1 ГБ
Передача данных в Ceph после дедупликации и сжатия69.7 ГБ
Дедупликация1.3X
Сжатие2.7X


Таблица 2.

Резервное копирование
Репозиторий
Продолжительность
(сек)
Источник
(%)
Прокси
(%)
Сеть
(%)
Цель
(%)
Обработка
Скорость (МБ/с)
Среднее
Запись данных
Скорость (МБ/с)
Linux VM,
RBD-реплика 3
64683338421554110
Linux VM,
CephFS-реплика 3
5219725315564137
Linux VM,
RBD, EC
64582348324554111
Linux VM,
CephFS, EC
5369726274564133
Linux Server,
RBD, EC
5269721163561136

Примечание: Средние показатели записи данных рассчитываются путем деления переданных данных на продолжительность. Эти показатели представляют нагрузку на кластер Ceph в этих резервных копиях.

(2) Создание резервной копии виртуальной машины Windows 10 на Hyper-V на HDD

В этом тесте мы создаем резервную копию экземпляра Hyper-V, который хранится на жестком диске SATA. Скорости обработки этих задач достигают верхнего предела пропускной способности HDD. Мы также можем обнаружить, что узкое место находится на источнике, потому что их нагрузка занята в течение 99% времени выполнения задания. Кластер Ceph, цель, нагрузка от резервных копий Veeam легкая. Кластер Ceph занят только на 6% до 1% рабочего времени.

По сравнению с предыдущими показателями, скорость обработки резервной копии виртуальной машины значительно ниже, чем у резервной копии на SSD.Это в основном связано с тем, что данные ВМ хранятся на жестком диске.

Таблица 3.

Размер диска (HDD)127 ГБ
Чтение данных из источника37.9 ГБ
Данные переданы в Ceph после
Дедупликации и сжатия
21.4GB
Дедупликация3.3X
Сжатие1.8X


Таблица 4. Резервное копирование образа виртуальной машины на жестком диске SATA3

Резервное копирование
Репозиторий
Продолжительность
(сек)
Источник
(%)
Прокси
(%)
Сеть
(%)
Цель
(%)
Обработка
Скорость (МБ/с)
Среднее
Запись данных
Скорость (МБ/с)
Linux VM,
Том RBD, EC
3639973614560
Linux VM,
Том CephFS,
ЕС
3779972114258.1
Linux Server,
Том RBD, EC
3759962214058.4

Примечание: Средние показатели записи данных рассчитываются путем деления переданных данных на продолжительность. Эти показатели представляют нагрузку на кластер Ceph в этих резервных копиях.

(3)Резервное копирование виртуальных машин на ESXi на жестком диске

Этот тест создает резервную копию виртуальных машин CentOS 7 и Windows 10, работающих на жестком диске хоста VMWare ESXi 6.5, в репозиторий, поддерживаемый Ceph RBD с защитой кодированием 4+2.

Таблица 5.

ИсточникВиртуальная машина CentOSВиртуальная машина Windows 10
Размер диска (HDD)40 ГБ32 ГБ
Чтение данных из источника1.8 ГБ12.9 ГБ
Данные переданы в Ceph после
Дедупликации и сжатия
966 МБ7.7 ГБ
Дедупликация22.1X2.5X
Сжатие1.9X1.7X


Таблица 6.

Резервное копирование
Источник
Продолжительность
(сек)
Источник
(%)
Прокси
(%)
Сеть
(%)
Цель
(%)
Обработка
Скорость (МБ/с)
Среднее
Запись данных
Скорость (МБ/с)
CentOS 7122991050888
Windows 102449911519332

Примечание: Средние показатели записи данных рассчитываются путем деления переданных данных на продолжительность. Эти показатели представляют нагрузку на кластер Ceph в этих резервных копиях.

Выводы

Согласно результатам тестирования, Ceph RBD и CephFS имеют схожую производительность. Это соответствует нашему опыту в отношении показателей производительности RBD и CephFS. Сравнивая характеристики CephFS и RBD, у них есть свои преимущества и недостатки. Если вам нужно развернуть несколько серверов репозиториев, вам нужно создать образ RBD для каждого сервера резервного копирования, так как вы можете монтировать только один Ceph RBD на одном хосте. По сравнению с CephFS, использование RBD проще, так как оно не требует серверов метаданных. При создании необходимо назначить размер емкости RBD, поэтому вам нужно изменить ее емкость, когда вам нужно больше места.

Если вы используете CephFS в качестве репозитория, вам необходимо развернуть как минимум один сервер метаданных (MDS) в кластере Ceph. Нам также нужен резервный сервер метаданных для обеспечения высокой доступности. По сравнению с Ceph RBD, вам не нужно устанавливать квоту для файловой системы. Таким образом, вы можете рассматривать CephFS как бесконечный пул хранения.

В этой демонстрации использования наша тестирование резервного копирования выполняется только для одной виртуальной машины в каждой задаче резервного копирования. Исходя из вышеприведенных отчетов о тестировании, мы знаем, что средняя скорость записи данных зависит от скорости обработки, а также от эффективности дедупликации и сжатия данных. Более быстрый исходный диск сокращает время выполнения задачи резервного копирования и приводит к более высокой скорости обработки. В зависимости от инфраструктуры пользователей, пользователи могут развернуть несколько одновременных задач для резервного копирования различных объектов одновременно. Хранилище Ceph отлично справляется с поддержкой нескольких одновременных задач.

20-кратный кластер HDD OSD Ceph, работающий на базе 3-х Ambedded Mars 400, может предложить до 700 МБ/с агрегированной пропускной способности записи в пул с кодом исправления ошибок 4+2. Развертывание нескольких текущих заданий резервного копирования позволяет сократить общую продолжительность резервного копирования. Максимальная производительность кластера Ceph практически пропорциональна общему количеству дисковых накопителей в кластере.

В этом случае мы не тестировали использование хранилища объектов S3 в качестве резервного репозитория. Хранилище объектов S3 может использоваться в качестве уровня емкости в резервном репозитории Veeam Scale-Out и целевом архивном репозитории для резервного копирования NAS. Вы можете легко настроить шлюз RADOS и создать пользователей хранилища объектов с помощью Ambedded UVS-менеджера, веб-интерфейса управления Ceph.

Скачать
Использование Ceph в качестве репозитория для белой бумаги Veeam Backup & Replication
Использование Ceph в качестве репозитория для белой бумаги Veeam Backup & Replication

Как настроить блочное устройство Ceph RBD и файловую систему CephFS в качестве резервного...

Скачать
Связанные продукты
Хранилище Ceph Mars 400PRO - Хранилище Ceph Mars 400 передняя часть.
Хранилище Ceph Mars 400PRO
Mars 400PRO

Mars 400 Ceph Appliance разработан для удовлетворения высоких потребностей в хранении данных...

Подробности

Veeam резервное копирование и архивирование для работы с Ceph | Решения хранения Ceph на микросерверах ARM | Ambedded

Расположенная на Тайване с 2013 года, Ambedded Technology Co., LTD. является поставщиком решений для блочного и объектного хранения данных. Их основные направления в управлении хранением данных включают технологию хранения Ceph, интеграцию ARM-серверов, программно-определяемое хранение, оптимизацию хранения предприятий, экономию затрат на устройства Ceph, программное обеспечение для управления хранением и решения для блочного и объектного хранения данных. Они предоставляют профессиональную поддержку Ceph, масштабируемые системы хранения с высокой эффективностью в центре обработки данных.

Ambedded предлагает передовые решения для хранения Ceph на микросерверах ARM, разработанные для B2B-покупателей, стремящихся оптимизировать свои системы хранения предприятия. Наши готовые комплекты Ceph снижают общую стоимость владения (TCO) и упрощают управление хранилищем, поддерживая блочное, файловое и объектное хранилище на единой платформе. С обязательством к инновациям и поддержке клиентов, Ambedded является вашим надежным партнером для масштабируемых и эффективных решений хранилища SUSE Enterprise Storage Appliance. Получите безупречную интеграцию и профессиональную поддержку для раскрытия полного потенциала технологии Ceph в вашем бизнесе.

Ambedded предоставляет клиентам масштабируемые системы хранения и экономичное управление хранилищем Ceph с 2013 года, и с использованием передовых технологий и 20-летнего опыта Ambedded гарантирует удовлетворение потребностей каждого клиента.