Gradient, un laboratoire d'IA distribué, a lancé le cadre d'apprentissage par renforcement distribué Echo-2 visant à surmonter les barrières d'efficacité dans la formation à la recherche en IA. Selon ChainCatcher, Echo-2 réalise une réduction significative des coûts post-formation pour un modèle de 30 milliards de paramètres, passant de 4 500 $ à 425 $. Cette avancée permet d'augmenter de plus de dix fois le débit de recherche dans le même budget.

Le cadre utilise une technologie de séparation calcul-stockage pour un entraînement asynchrone, déchargeant une puissance d'échantillonnage importante sur des instances GPU instables et des GPU hétérogènes basés sur Parallax. Il intègre une obsolescence limitée, une planification tolérante aux pannes des instances et le protocole de communication propriétaire Lattica pour améliorer l'efficacité de l'entraînement tout en maintenant la précision du modèle. En parallèle de la sortie du cadre, Gradient s'apprête à introduire la plateforme RLaaS Logits, qui vise à faire évoluer la recherche en IA d'un paradigme intensif en capital à un paradigme axé sur l'efficacité. Logits est maintenant ouvert aux réservations par des étudiants et des chercheurs du monde entier.