Quand Walrus utilise des engagements cryptographiques et des preuves sur la chaîne, pourquoi le stockage des jeux de données d'IA sur des réseaux décentralisés soulève-t-il des préoccupations concernant la manipulation ou la perte ?

Walrus maintient l'intégrité des jeux de données grâce à son algorithme de codage par érasure RedStuff, qui encode les blobs — tels que les jeux de formation d'IA de plusieurs gigaoctets — en tranches primaires et secondaires avec une redondance intégrée, permettant la reconstruction à partir d'un simple quorum de 1/3 de tranches correctes, même si jusqu'à 2/3 des nœuds de stockage sont défaillants ou indisponibles après la synchronisation du réseau, tandis que chaque tranche inclut des hachages d'engagement que les clients vérifient par rapport à l'ID dérivé du contenu du blob original lors de la récupération pour détecter toute altération ou incohérence ; en outre, le système exige un quorum de 2/3 d'accusés de réception signés par les nœuds pour générer un certificat POA, qui est publié comme un enregistrement immuable sur la blockchain Sui, garantissant que, une fois certifié, la garde du jeu de données est publiquement vérifiable et que les nœuds sont tenus de conserver les tranches sans modification, toute incohérence prouvée entraînant une dissociation sur la chaîne de l'ID du blob de son objet de ressource de stockage, le rendant effectivement inaccessible tout en préservant l'empreinte pour des vérifications d'analyse forensique.

Les éléments de métadonnées du blob, la durée de stockage basée sur l'époque et les engagements de tranches sont gérés par les contrats intelligents Move de Sui. La vérification programmée, la réparation automatique et les paiements délégués selon le Proof of Stake sont possibles. Les nœuds qui échouent à générer des tranches authentifiées ou à répondre aux défis perdent leurs engagements, empêchant toute manipulation et reliant la valeur des jetons à l'intégrité des données.

Pour éviter la corruption de la chaîne de production, une équipe d'IA fine-tunant des modèles sur des jeux de données propriétaires pourrait télécharger un corpus de 500 Go sur Walrus, recevoir le POA et l'objet de métadonnées sur Sui pour une vérification sur la chaîne, et intégrer un contrat Move pour libérer conditionnellement les poids du modèle après des audits d'intégrité périodiques confirmant les engagements de tranches.

Comment l'ajout des vérifications d'engagement de tranches de Walrus à votre pipeline d'entraînement d'IA crowdsourcée peut-il affecter le dérèglement des données et les entrées adverses au fil des époques ?

@Walrus 🦭/acc $WAL #Walrus