
Almacenamiento distribuido
Puedes usar
Cephpara construir un clúster de servidores para almacenar datos en alta disponibilidad. Replicaciones de datos o
erasure code Los fragmentos se almacenan de forma distribuida en dispositivos que pertenecen a diferentes dominios de fallos predefinidos.
Cephpuede mantener su servicio de datos sin pérdida de datos cuando varios dispositivos, nodos de servidor, racks o sitios fallan a la vez.
Los clientes interactúan directamente con todos los dispositivos de almacenamiento para leer y escribir utilizando
CephEl algoritmo de almacenamiento distribuido CRUSH. Debido a esto, elimina el cuello de botella en el adaptador de bus de host (HBA) tradicional, que limita la escalabilidad del sistema de almacenamiento.
Ceph puede escalar su capacidad linealmente con el rendimiento a la escala de exabytes.
Cephpara construir un clúster de servidores para almacenar datos en alta disponibilidad. Replicaciones de datos o
erasure code Los fragmentos se almacenan de forma distribuida en dispositivos que pertenecen a diferentes dominios de fallos predefinidos.
Cephpuede mantener su servicio de datos sin pérdida de datos cuando varios dispositivos, nodos de servidor, racks o sitios fallan a la vez.
Los clientes interactúan directamente con todos los dispositivos de almacenamiento para leer y escribir utilizando
CephEl algoritmo de almacenamiento distribuido CRUSH. Debido a esto, elimina el cuello de botella en el adaptador de bus de host (HBA) tradicional, que limita la escalabilidad del sistema de almacenamiento.
Ceph puede escalar su capacidad linealmente con el rendimiento a la escala de exabytes.
Ceph Almacenamiento definido por software
Ceph está diseñado para ser escalable y no tener un solo punto de falla.
Monitor (LUN), Object Storage Daemon (OSD) y Metadata Servers (MDS) son tres daemons clave (proceso de Linux) en el Ceph grupo.
Por lo general, A Ceph el clúster tendrá tres o más monitornodos para redundancia.Monitors mantener una copia maestra de los mapas de conglomerados, que permiten Cephclientes para comunicarse directamente con OSD y MDS. Estos mapas son un estado crítico del clúster requerido paraCeph demonios para coordinarse entre sí. Monitorstambién son responsables de administrar la autenticación entre demonios y clientes. Números impares demonitorsmantener el mapa de conglomerados utilizando un quórum. Este algoritmo evita el punto único de falla en elmonitor y garantiza que su consenso es válido.
OSD es el object storage demonio para el Ceph. Almacena datos, maneja la replicación, recuperación, reequilibrio de datos y proporciona cierta información de monitoreo aCeph Monitorscomprobando otros demonios OSD para ver si hay latido. Cada servidor de almacenamiento ejecuta uno o varios demonios OSD , uno por dispositivo de almacenamiento. Por lo general, se requieren al menos 3 OSD para obtener redundancia y alta disponibilidad.
El demonio MDS gestiona los metadatos relacionados con los archivos almacenados en el Ceph File System y también coordina el acceso a los compartidos Ceph StorageGrupo. Puede tener múltiples MDS activos para la redundancia y equilibrar la carga de cada MDS. Necesitará uno o más servidores de metadatos (MDS) solo cuando desee utilizar elfile system.
Ceph es almacenamiento escalable
En un sistema de almacenamiento tradicional, los clientes se comunican con un componente centralizado (por ejemplo, un adaptador de bus de host o una puerta de enlace), que es un único punto de entrada a un subsistema complejo. El controlador centralizado impone un límite tanto al rendimiento como a la escalabilidad, además de introducir un único punto de falla. Si el componente centralizado falla, todo el sistema también falla.
Ceph los clientes obtienen el mapa de clúster más reciente de monitorsy utilice el algoritmo CRUSH para calcular qué OSD en el clúster. Este algoritmo permite a los clientes interactuar conCephOSD directamente sin pasar por un controlador centralizado. El algoritmo CRUSH elimina la ruta única, lo que provoca la limitación de escalabilidad.
Ceph El clúster OSD proporciona a los clientes un almacenamiento compartido pool. Cuando necesite más capacidad o rendimiento, puede agregar un nuevo OSD para escalar horizontalmentepool. La actuación de unCephel clúster es linealmente proporcional al número de OSD. La siguiente imagen muestra que las IOPS de lectura / escritura aumentan si aumentamos el número de OSD.
La matriz de discos tradicional usa el controlador RAID para proteger los datos de fallas en el disco. La capacidad de una unidad de disco duro era de unos 20 MB cuando se inventó la tecnología RAID. Hoy en día, la capacidad del disco alcanza los 16 TB. El tiempo para reconstruir un disco fallido en el grupo RAID puede llevar una semana. Mientras el controlador RAID está reconstruyendo la unidad fallida, existe la posibilidad de que un segundo disco falle al mismo tiempo. Si la reconstrucción lleva más tiempo, la probabilidad de perder datos es mayor.
Ceph recupera los datos perdidos en el disco fallido por todas las demás unidades en buen estado del clúster. Cephreconstruirá solo curará los datos almacenados en la unidad fallida. Si hay más discos en buen estado, el tiempo de recuperación será más corto.
- Config Ceph CRUSH Map & Regla
Utilizar el UVS manager para definir el Ceph CRUSH map y reglas de CRUSH.