Gradient, распределенная лаборатория ИИ, запустила фреймворк Echo-2 для распределенного обучения с подкреплением, направленный на преодоление барьеров эффективности в обучении ИИ. Согласно ChainCatcher, Echo-2 достигает значительного снижения посттренировочных затрат для модели с 30 миллиардами параметров, уменьшив их с $4,500 до $425. Этот прогресс позволяет более чем в десять раз увеличить пропускную способность исследований в рамках того же бюджета.

Фреймворк использует технологию разделения вычислений и хранения для асинхронного обучения, перераспределяя обширные вычислительные мощности на нестабильные экземпляры GPU и гетерогенные GPU на основе Parallax. Он включает ограниченную устарелость, отказоустойчивое планирование экземпляров и запатентованный протокол связи Lattica для повышения эффективности обучения при сохранении точности модели. Наряду с выпуском фреймворка, Gradient готовится представить платформу RLaaS Logits, которая нацелена на переход от капиталоемкого к ориентированному на эффективность парадигме в ИИ-исследованиях. Logits теперь открыта для бронирования студентами и исследователями по всему миру.