
Ketersediaan dan Daya Tahan Data Tinggi
Ceph
object storage mencapai ketersediaan data melalui replikasi dan pengkodean penghapusan lanjutan dimana data digabungkan dengan informasi paritas dan kemudian dipecah dan didistribusikan di seluruh penyimpanan
pool.
Jika perangkat penyimpanan gagal, hanya sebagian dari pecahan yang diperlukan untuk memulihkan data, tidak ada waktu rekondisi atau kinerja yang menurun, dan perangkat penyimpanan yang gagal dapat diganti jika nyaman.
Ceph menggabungkan data terdistribusi luas dan teknologi pemolesan data yang terus memvalidasi data yang tertulis di media dapat memungkinkan Anda mencapai 15 sembilan kali ketahanan data.
Replikasi Data, Hapus Coding & Scrubbing
Replikasi Objek
Saat klien akan menulis data, ia menggunakan ID objek dan poolnama untuk menghitung OSD mana yang akan ditulis. Setelah klien menulis data ke OSD, OSD menyalin data ke satu atau lebih OSD. Anda dapat mengonfigurasi replikasi sebanyak yang Anda inginkan agar data dapat bertahan jika beberapa OSD gagal secara bersamaan. Replikasi serupa dengan RAID-1 dari larik disk tetapi memungkinkan lebih banyak salinan data. Karena dalam skala besar, replikasi RAID-1 sederhana mungkin tidak lagi cukup menutupi risiko kegagalan perangkat keras. Satu-satunya kelemahan dari menyimpan lebih banyak replika adalah biaya penyimpanan.
Cephklien menulis data secara acak ke OSD berdasarkan algoritma CRUSH . Jika disk atau node OSD gagal,Cephdapat memulihkan kembali data dari replikasi lain yang disimpan dalam OSD yang sehat.
Anda dapat menentukan domain yang gagal dibuatCephmenyimpan data yang direplikasi di server, rak, ruangan, atau pusat data yang berbeda untuk menghindari kehilangan data karena satu atau lebih kegagalan dari keseluruhan domain kegagalan. Misalnya, jika Anda memiliki 15 server penyimpanan yang dipasang di 5 rak (3 server di setiap rak), Anda dapat menggunakan replika tiga dan rak sebagai domain kegagalan. Penulisan data keCephcluster akan selalu memiliki tiga salinan yang disimpan di tiga dari lima rak. Data dapat bertahan hingga 2 dari rak gagal tanpa menurunkan layanan klien. ItuCRUSH rule adalah kuncinya Ceph storagetidak memiliki satu pun titik kegagalan .
Hapus Coding
Replikasi menawarkan kinerja keseluruhan terbaik, tetapi tidak banyak ruang penyimpanan yang efisien. Terutama jika Anda membutuhkan tingkat redundansi yang lebih tinggi.
Untuk memiliki ketersediaan data yang tinggi adalah alasan kami menggunakan RAID-5 atau RAID-6 di masa lalu sebagai alternatif dari RAID-1. Parity RAID menjamin redundansi dengan overhead penyimpanan yang jauh lebih sedikit dengan mengorbankan kinerja penyimpanan (kebanyakan kinerja tulis).Cephmenggunakan encoding penghapusan untuk mencapai hasil yang serupa. Ketika skala sistem penyimpanan Anda menjadi besar, Anda mungkin merasa tidak percaya diri dengan hanya mengizinkan satu atau dua disk atau domain kegagalan gagal pada saat yang bersamaan. Ituerasure codeAlgoritma memungkinkan Anda untuk mengkonfigurasi tingkat redundansi yang lebih tinggi tetapi dengan ruang overhead yang lebih sedikit.
Hapus potongan pengkodean data asli ke dalam potongan data K dan hitung potongan pengkodean M ekstra.Cephdapat memulihkan data maksimum M kegagalan domain gagal sementara itu. Total K + M potongan disimpan di OSD, yang berada di domain kegagalan yang berbeda.
Penggosokan
Sebagai bagian dari menjaga konsistensi dan kebersihan data, CephOSD Daemon dapat menghapus objek dalam grup penempatan. Itu adalah,CephOSD Daemon dapat membandingkan metadata objek dalam satu grup penempatan dengan replikanya dalam grup penempatan yang disimpan di OSD lain. Scrubbing (biasanya dilakukan setiap hari) menangkap bug atau kesalahan sistem file.CephOSD Daemon juga melakukan scrubbing lebih dalam dengan membandingkan data dalam objek bit-for-bit. Deep scrubbing (biasanya dilakukan mingguan) menemukan bad sector pada drive yang tidak terlihat dalam scrub ringan.
Penyembuhan Data
Karena desain penempatan data Ceph, data disembuhkan oleh semua OSD yang sehat. Tidak ada disk cadangan yang diperlukan untuk pemulihan data. Hal ini dapat membuat waktu pemulihan ulang menjadi jauh lebih singkat dibandingkan dengan larik disk, yang harus membangun kembali data yang hilang ke disk cadangan.
- Config CRUSH map dan aturan
-
Menggunakan UVS manager untuk menentukan distribusi data dan domain kegagalan.