Większość ludzi nie myśli o tym, co się dzieje, gdy przesyłane są, przenoszone lub przechowywane duże ilości danych. Ale dla zdecentralizowanych aplikacji, obciążeń AI i systemów z dużą ilością danych, to jeden z największych wąskich gardeł w całym stosie.

To tutaj @Walrus 🦭/acc wprowadza interesującą decyzję architektoniczną: Walrus oddziela koordynację zapisu od odpowiedzialności za długoterminowe przechowywanie.

------------------

W tradycyjnych systemach pisanie danych i przechowywanie danych często obsługiwane są przez tę samą warstwę.

Działa to dobrze dla małych plików, ale gdy dane stają się duże, współdzielone lub równoległe, wszystko szybko zwalnia. Wyobraź sobie dziesiątki aplikacji próbujących jednocześnie przesłać modele AI, zasoby gier lub ciągłe strumienie mediów. Serwery zaczynają walczyć o pasmo, koordynacja staje się chaotyczna, a użytkownicy czekają. W zdecentralizowanych sieciach ten zator staje się jeszcze bardziej wyraźny, ponieważ żadna pojedyncza maszyna nie jest "na czołowej pozycji" ..

#walrus dzieli proces na dwie różne odpowiedzialności

1. Napisz warstwę koordynacyjną

2. Warstwa długoterminowej pamięci

Ten projekt nie jest tylko elegancki — jest praktyczny:

✔ Przesyłanie nie spowalnia się pod obciążeniem

✔ Duże zbiory danych mogą być obsługiwane bez blokowania reszty sieci

✔ Dostawcy pamięci mogą skupić się na trwałości zamiast koordynacji

✔ Programiści uzyskują przewidywalną wydajność

✔ Użytkownicy końcowi uzyskują szybki dostęp


Te korzyści są szczególnie ważne, gdy aplikacje stają się bardziej intensywne w danych.

AI, gry i usługi danych potrzebują tego poziomu efektywności

Dobry design jest niewidoczny, dopóki nie jest ważny $WAL