Topik toleransi kesalahan dalam sistem penyimpanan data selalu relevan, karena di abad kita tentang virtualisasi dan konsolidasi sumber daya penyimpanan di mana-mana, penyimpanan adalah mata rantai yang kegagalannya tidak hanya akan mengarah pada kecelakaan biasa, tetapi juga pada downtime layanan yang lama. Oleh karena itu, sistem penyimpanan modern menggabungkan banyak komponen duplikat (hingga pengendali). Tetapi apakah perlindungan seperti itu cukup?

Benar-benar semua vendor, mendaftar karakteristik sistem penyimpanan, selalu menyebutkan toleransi kesalahan yang tinggi dari solusi mereka, tanpa gagal menambahkan istilah "tanpa titik kegagalan tunggal". Lihatlah lebih dekat pada sistem penyimpanan khas. Untuk menghilangkan waktu henti layanan, catu daya, modul pendingin, port I / O, drive (artinya RAID) dan, tentu saja, pengontrol digandakan dalam sistem penyimpanan. Jika Anda melihat lebih dekat pada arsitektur ini, Anda akan melihat setidaknya dua kemungkinan titik kegagalan, yang tidak banyak dibahas:
- Kehadiran satu backplane (backplane)
- Satu salinan data
Backplein adalah perangkat yang secara teknis canggih yang harus menjalani pengujian ketat dalam produksi. Dan karena itu, ada kasus yang sangat langka ketika gagal total. Namun, bahkan jika terjadi kegagalan fungsi parsial, seperti slot drive yang tidak berfungsi, akan perlu untuk menggantinya dengan shutdown lengkap dari sistem penyimpanan.
Membuat banyak salinan data juga tidak menjadi masalah pada pandangan pertama. Jadi, misalnya, fungsionalitas Clone dalam sistem penyimpanan, yang memungkinkan memperbarui salinan data lengkap dengan beberapa periodisitas, cukup luas. Namun, jika ada masalah dengan backplane yang sama, salinannya tidak akan dapat diakses seperti aslinya.
Solusi yang sangat jelas untuk mengatasi kekurangan ini adalah replikasi ke sistem penyimpanan lain. Jika kita menutup mata terhadap penggandaan biaya perangkat keras yang diharapkan (namun demikian, kita mengasumsikan bahwa orang yang memilih solusi ini berpikir secara memadai dan menerima fakta ini sebelumnya), masih ada kemungkinan pengeluaran untuk mengatur replikasi dalam bentuk lisensi, perangkat lunak tambahan, dan perangkat keras. Dan yang paling penting - Anda perlu memastikan konsistensi dari data yang direplikasi. Yaitu membangun virtualizer penyimpanan / vSAN / dll., yang juga membutuhkan sumber daya uang dan waktu.
AccelStor dalam menciptakan sistem Ketersediaan Tinggi yang ditetapkan untuk menyingkirkan kerugian di atas. Jadi ada interpretasi teknologi Shared Nothing, yang dalam terjemahan gratis berarti "tanpa menggunakan perangkat umum".
Konsep arsitektur Shared Nothing adalah penggunaan dua node independen (pengontrol), yang masing-masing memiliki kumpulan data sendiri. Replikasi sinkron antar node melalui antarmuka InfiniBand 56G dibuat sangat transparan untuk perangkat lunak yang berjalan di atas sistem penyimpanan. Akibatnya, penggunaan virtualizer penyimpanan, agen perangkat lunak, dll. Tidak diperlukan.
Secara fisik, solusi dua solusi AccelStor dapat diimplementasikan dalam dua model:
- H510 - berbasis pada server Twin dalam paket 2U, jika kinerja dan kapasitas moderat hingga 22TB diperlukan;
- H710 - berdasarkan pada server 2U yang terpisah, jika kinerja tinggi dan kapasitas tinggi (hingga 57TB) diperlukan.
H510 Twin Server Model
Model H710 berdasarkan pada server yang terpisah
Penggunaan faktor bentuk yang berbeda disebabkan oleh kebutuhan akan jumlah SSD yang berbeda untuk mencapai volume dan kinerja yang diberikan. Plus, platform Twin lebih murah dan memungkinkan Anda untuk menawarkan solusi yang lebih terjangkau, meskipun dengan beberapa "kelemahan" bersyarat dalam bentuk satu backplane. Segala sesuatu yang lain, termasuk prinsip-prinsip operasi, sepenuhnya identik untuk kedua model.
Kumpulan data untuk setiap node memiliki dua grup FlexiRemap , ditambah 2 cadangan panas. Setiap kelompok mampu menahan kegagalan satu SSD. Sesuai dengan ideologi, FlexiRemap membangun kembali semua permintaan yang masuk untuk merekam simpul ke rantai berurutan dengan blok 4K, yang kemudian ditulis ke SSD dalam mode yang paling nyaman bagi mereka (perekaman berurutan). Selain itu, tuan rumah mengonfirmasi catatan hanya setelah penempatan fisik data pada SSD, mis. tanpa caching di RAM. Hasilnya adalah kinerja yang sangat mengesankan hingga 600K IOPS untuk menulis dan 1M + IOPS untuk membaca (model H710).
Seperti disebutkan sebelumnya, sinkronisasi dataset terjadi secara real time melalui antarmuka InfiniBand 56G, yang memiliki bandwidth tinggi dan latensi rendah. Untuk memaksimalkan penggunaan saluran komunikasi saat mengirimkan paket kecil. Karena hanya ada satu saluran komunikasi, untuk pemeriksaan pulsa tambahan, tautan 1GbE khusus digunakan. Hanya detak jantung yang ditransmisikan melalui itu, sehingga tidak ada persyaratan untuk karakteristik kecepatan.
Jika kapasitas sistem meningkat (hingga 400 + TB) karena rak ekspansi, mereka juga dihubungkan berpasangan untuk memenuhi konsep "tanpa satu titik kegagalan".
Untuk perlindungan data tambahan (selain fakta bahwa AccelStor sudah memiliki dua salinan), algoritma perilaku khusus digunakan jika terjadi kegagalan SSD apa pun. Jika SSD gagal, node akan mulai membangun kembali data di salah satu drive cadangan panas. Grup FlexiRemap yang dalam kondisi terdegradasi akan masuk ke mode hanya baca. Hal ini dilakukan untuk menghilangkan gangguan operasi tulis dan rekondisi pada disk cadangan, yang pada akhirnya mempercepat proses pemulihan dan mengurangi waktu ketika sistem berpotensi rentan. Setelah selesai membangun kembali, node beralih kembali ke mode baca-tulis normal.
Tentu saja, seperti halnya dengan sistem lain, selama pembangunan kembali, kinerja keseluruhan menurun (setelah semua, salah satu kelompok FlexiRemap tidak bekerja pada perekaman). Tetapi proses pemulihan itu sendiri secepat mungkin, yang membedakan sistem AccelStor dari solusi vendor lain.
Fitur lain yang berguna dari teknologi Nothing Shared adalah pengoperasian node dalam mode aktif-aktif yang sebenarnya. Berbeda dengan arsitektur "klasik", di mana hanya satu pengontrol yang memiliki volume / kumpulan tertentu dan yang kedua hanya melakukan operasi input / output, dalam sistem AccelStor setiap node bekerja dengan kumpulan data sendiri dan tidak mengirimkan permintaan ke "tetangga". Akibatnya, kinerja sistem secara keseluruhan ditingkatkan karena pemrosesan paralel permintaan input / output oleh node dan akses ke drive. Juga, sebenarnya tidak ada yang namanya failover, karena Anda tidak perlu mentransfer kontrol volume ke node lain jika terjadi kegagalan.
Jika kita membandingkan teknologi arsitektur Nothing Shared dengan duplikasi penuh penyimpanan, maka, pada pandangan pertama, itu akan sedikit lebih rendah daripada implementasi penuh pemulihan bencana dalam fleksibilitas. Ini terutama berlaku untuk organisasi jalur komunikasi antara sistem penyimpanan. Jadi, dalam model H710, dimungkinkan untuk menyebarkan node ke jarak 100m karena penggunaan kabel optik aktif InfiniBand yang tidak terlalu murah. Tetapi bahkan jika dibandingkan dengan implementasi replikasi sinkron biasa dari vendor lain melalui FibreChannel yang tersedia bahkan pada jarak yang lebih jauh, solusi dari AccelStor akan lebih murah dan lebih mudah untuk diinstal / dioperasikan, seperti tidak perlu menginstal virtualizers penyimpanan dan / atau mengintegrasikan dengan perangkat lunak (yang pada prinsipnya jauh dari selalu memungkinkan). Plus, jangan lupa bahwa solusi AccelStor adalah Semua array Flash dengan kinerja lebih tinggi daripada sistem penyimpanan "klasik" dengan SSD saja.

Saat menggunakan teknologi Nothing Shared dari AccelStor, realistis untuk mendapatkan ketersediaan sistem penyimpanan 99,9999% dengan biaya yang sangat wajar. Bersama dengan keandalan solusi yang tinggi, termasuk melalui penggunaan dua salinan data, dan kinerja yang mengesankan berkat algoritma FlexiRemap yang dipatenkan, solusi AccelStor adalah kandidat yang sangat baik untuk posisi kunci dalam membangun pusat data modern.