Optimisation des performances Walrus : atteindre une latence native du cloud à l'échelle décentralisée
Walrus démontre qu'il est possible d'obtenir des performances natives du cloud dans un stockage décentralisé, grâce à une ingénierie de précision négligeable, plutôt que par compromis centralisés. Walrus affiche une latence P99 inférieure à 50 ms en moyenne mondiale pour les requêtes, ce qui égale les performances des anciens CDN, tout en maintenant la décentralisation.
Le routage des requêtes est effectué vers des opérateurs géographiquement proches de la requête, ce qui minimise le délai aller-retour, et l'assemblage des fragments côté client est amélioré grâce à des algorithmes vectorisés XOR qui surpassent le décodage par erreur plus ancien. Les flux de téléchargement parallèles et le contrôle adaptatif de la congestion exploitent toute la bande passante disponible, permettant ainsi une haute débit même sur des connexions internationales longues distances.
Les caches sont rendus intelligents et les connexions sont regroupées pour réduire le travail redondant, les connexions persistantes et la sérialisation optimisée éliminent les surcharges du protocole. Les reconstructions prédictives priorisent et rétablissent les fragments dégradés avant qu'ils n'entraînent une latence pour les utilisateurs, et les réessais adaptatifs garantissent que le trafic n'est pas amplifié lorsque le système est sous forte charge.
Les effets de « voisins bruyants » dans les environnements partagés sont évités grâce à une isolation des performances et au regroupement de la mémoire, assurant une cohérence des performances dans les infrastructures distribuées des entreprises, tout en maintenant une cohérence similaire à celle du cloud partagé. Le benchmarking et le reporting des unités de latence réelles sont constants, permettant ainsi d'aligner étroitement les incitations économiques avec les performances réelles, récompensant ainsi les opérateurs capables de maintenir une haute qualité.
Walrus comble l'écart de performance entre le stockage centralisé et décentralisé grâce à une optimisation algorithmique activée par des matériels haut de gamme, au positionnement piloté par les données, et à une cartographie CPU adaptable au matériel. Ce qui a été réalisé, c'est un système réparti à l'échelle mondiale offrant une réactivité de type cloud, tout en conservant la résilience, l'indépendance et la permanence de l'architecture décentralisée.


