Saya terus kembali ke bottleneck yang sama ketika memikirkan pembuatan untuk AI atau aplikasi Web3 berat, dan itu adalah Penyimpanan Data. Itu adalah sentralisasi yang berisiko atau terdesentralisasi yang sangat tidak efisien. Setelah membaca dokumentasi teknis Walrus dan pengumuman mereka dari tahun lalu, yang menonjol bagi saya bukan sekadar lapisan penyimpanan baru, tetapi pilihan rekayasa khusus yang membalikkan skenario kompromi biasa. Tim di Mysten Labs tidak hanya mengoptimalkan model yang ada, mereka membangun yang baru dari nol untuk mengatasi kekacauan khusus dari jaringan tanpa izin.
Sebagian besar sistem penyimpanan terdesentralisasi membuat Anda harus memilih antara dua pilihan yang buruk. Anda bisa memilih replikasi penuh, seperti dalam blockchain tradisional, di mana data disalin ke setiap validator. Ini memberi Anda ketersediaan yang sangat baik dan pemulihan yang sederhana, tetapi biayanya sangat tinggi, bayangkan replikasi 25x atau lebih untuk keamanan yang kuat. Pilihan lainnya adalah pengkodean penghapusan, yang memotong data menjadi bagian-bagian sehingga Anda tidak perlu salinan penuh. Ini jauh lebih efisien dalam hal penyimpanan tetapi secara historis gagal saat node dalam jaringan berubah-ubah. Memulihkan bagian yang hilang membutuhkan penyebaran kembali seluruh file asli melalui jaringan, menghancurkan semua penghematan bandwidth. Ini menciptakan sistem yang hanya efisien dalam kondisi statis sempurna, yang tidak ada dalam dunia nyata jaringan terdesentralisasi.
Inovasi inti Walrus, yang dijelaskan dalam whitepaper April 2025 mereka, adalah protokol pengkodean penghapusan dua dimensi yang baru mereka sebut Red Stuff. Ini adalah titik balik. Data dibagi menjadi bagian-bagian kecil dengan cara yang memungkinkan mereka menyebutnya pemulihan "pemulihan diri". Ketika node penyimpanan tidak berfungsi, jaringan dapat memperbaiki data yang hilang menggunakan hanya sebagian kecil yang proporsional dari node lain, bukan seluruh file asli. Hasilnya adalah sistem yang tetap kuat dari segi keamanan dengan faktor replikasi hanya 4,5x, langkah yang wajar dibandingkan dengan 25x yang dibutuhkan untuk replikasi penuh. Lebih penting lagi, hasil praktisnya adalah jaringan yang tetap efisien dan tangguh meskipun node terus-menerus bergabung dan meninggalkan jaringan. Ini bukan perbaikan kecil, tetapi perubahan yang mengubah kelayakan ekonomi penyimpanan dataset besar secara terdesentralisasi.

