
Используйте Mars 400 Ceph для резервного копирования с диска на диск, многосайтовое восстановление после катастроф RGW.
Какие проблемы беспокоят большинство ИТ-пользователей, когда они планируют свою систему резервного копирования с диска на диск для предприятий?
Масштабируемость: Объем хранилища не останется фиксированным, конечно, для емкости решения резервного копирования. Большинство пользователей рассматривают возможность создания масштабируемого решения для хранения по запросу.
Отказоустойчивость и самообслуживание: Решение должно оставаться отказоустойчивым, без вмешательства или контроля.
Простота и постоянная доступность: Решение для резервного копирования должно увеличивать гибкость и снижать накладные расходы, обеспечивая доступность данных простым способом.
Сценарий резервного копирования хранилища Ceph:
Резервный сервер получает данные от серверов приложений, работающих в корпоративной сети. Резервный сервер организует данные, выполняя дедупликацию или сжатие, а затем сохраняет данные в кластер хранилища Ceph.
Кластер Ceph может восприниматься резервным сервером как блочное устройство, файловая система или объектный шлюз, в зависимости от того, какой протокол требуется резервным серверам для подключения.
Если резервные серверы работают на операционной системе Linux и требуют общей файловой системы, CephFS будет идеальным кандидатом. Если каждый резервный сервер записывает в свой объем данных, пользователь может использовать RBD или iSCSI. RBD предпочтителен, если резервный сервер использует Linux в качестве клиента Linux, использующего RBD для прямой записи на каждое устройство хранения в кластере Ceph.
Здесь мы больше сосредоточимся на новом протоколе S3, который будет использоваться в большинстве приложений резервного копирования, так как он может интегрироваться с поддержкой многосайтового Ceph RGW для достижения резервного копирования с диска на диск с функцией восстановления после катастроф в простой настройке группы ZONE.
Ceph поддерживает установку кластера с активной активностью на нескольких сайтах, чтобы сделать данные доступными в нескольких различных местах. С этой функцией клиент может развернуть облачное хранилище S3 на месте в разных локациях, и кластеры могут резервировать друг друга простым способом.
Клиенты могут использовать менеджер UVS для настройки многосайтового Rados Gateway, а также для настройки группы ZONE на UVS.
Когда основной ZONE вышел из строя, пользователи могли использовать менеджер UVS для повышения вторичной зоны до уровня основного ZONE и перенаправить сервис приложения на конечные точки Зоны 2, чтобы сервис и бизнес-приложение могли продолжать работу без перерывов.
Этот локальный S3 может быть интегрирован с серверами резервного копирования, чтобы клиент мог иметь одно и то же облачное хранилище резервных копий в нескольких местах (в соответствии с правилами регулирования или корпоративным управлением). Эти функции также могут предоставить хранилище S3 непосредственно для сервисов приложений.

Пример страховых клиентов:
Клиент хочет использовать облачное хранилище, чтобы позволить своему страховому агенту запускать свое приложение для загрузки и скачивания информации о полисе. Эта услуга не может быть построена на публичном облаке из-за регуляторных ограничений, в то же время данные должны храниться как минимум в двух разных местах. В этих условиях клиенты используют S3 через хранилище Ceph Mars 400 в 2 различных дата-центрах, чтобы предоставить свои облачные услуги продавцам. Данные на бакете в Кластере 1 активно синхронизируются с бакетом в Кластере 2, что обеспечивает высокую доступность данных, не беспокойтесь, если с одним из кластеров произойдет неожиданная авария.
- Связанные продукты
Хранилище Ceph Mars 400PRO
Mars 400PRO
Mars 400 Ceph Appliance разработан для удовлетворения высоких потребностей в хранении данных...
Подробности
