Saya terus kembali ke bottleneck yang sama ketika memikirkan pembangunan untuk AI atau aplikasi Web3 berat, yaitu Penyimpanan Data. Ini adalah sentralisasi yang berisiko atau desentralisasi yang sangat tidak efisien. Setelah membaca dokumentasi teknis Walrus dan pengumuman mereka dari tahun lalu, yang menonjol bagi saya bukan sekadar lapisan penyimpanan lainnya, tetapi pilihan rekayasa khusus yang membalikkan skenario biasa dalam pertukaran yang biasa. Tim di Mysten Labs tidak hanya mengoptimalkan model yang ada, mereka membangun model baru dari nol untuk mengatasi kekacauan khusus dari jaringan tanpa izin.
Sebagian besar sistem penyimpanan terdesentralisasi memaksa Anda untuk memilih racun Anda. Anda dapat memiliki replikasi penuh, seperti pada blockchain tradisional, di mana data disalin ke setiap validator. Ini memberi Anda ketersediaan yang hebat dan pemulihan yang sederhana, tetapi biayanya sangat tinggi, pikirkan 25x replikasi atau lebih untuk keamanan yang kuat. Jalur lainnya adalah pengkodean penghapusan, yang memotong data menjadi potongan sehingga Anda tidak perlu salinan penuh. Ini jauh lebih efisien dalam penyimpanan tetapi secara historis runtuh ketika node dalam jaringan churn. Memulihkan potongan yang hilang memerlukan penyiaran seluruh file asli di seluruh jaringan lagi, menghancurkan setiap penghematan bandwidth. Ini menciptakan sistem yang efisien hanya dalam kondisi statis yang sempurna, yang tidak ada di dunia nyata node terdesentralisasi.
Inovasi inti Walrus, yang dijelaskan dalam kertas putih mereka pada April 2025, adalah protokol pengkodean penghapusan dua dimensi baru yang mereka sebut Red Stuff. Ini adalah titik pivot. Ini memecah data menjadi potongan dengan cara yang memungkinkan untuk apa yang mereka sebut "pemulihan penyembuhan diri". Ketika sebuah node penyimpanan offline, jaringan dapat memperbaiki data yang hilang menggunakan hanya subset kecil yang proporsional dari node lain, bukan seluruh file asli. Hasilnya adalah sistem yang menjaga keamanan kuat dengan faktor replikasi hanya 4.5x, lompatan yang wajar dari 25x yang diperlukan untuk replikasi penuh. Yang lebih penting, hasil praktisnya adalah jaringan yang dapat tetap efisien dan tangguh bahkan dengan node yang terus bergabung dan keluar. Ini bukan peningkatan marginal, ini mengubah kelayakan ekonomi untuk menyimpan dataset besar dengan cara terdesentralisasi.