Gradient, un laboratorio di IA distribuito, ha lanciato il framework di apprendimento rinforzato distribuito Echo-2, volto a superare le barriere di efficienza nella formazione della ricerca sull'IA. Secondo ChainCatcher, Echo-2 raggiunge una significativa riduzione dei costi post-addestramento per un modello di 30 miliardi di parametri, passando da $4,500 a $425. Questo progresso consente un aumento di oltre dieci volte nel throughput della ricerca all'interno dello stesso budget.

Il framework impiega una tecnologia di separazione tra calcolo e archiviazione per l'addestramento asincrono, scaricando una potenza di campionamento estesa su istanze GPU instabili e GPU eterogenee basate su Parallax. Incorpora una staleness limitata, programmazione tollerante ai guasti delle istanze e il protocollo di comunicazione proprietario Lattica per migliorare l'efficienza dell'addestramento mantenendo la precisione del modello. Insieme al rilascio del framework, Gradient è pronta a introdurre la piattaforma RLaaS Logits, che mira a spostare la ricerca sull'IA da un paradigma ad alta intensità di capitale a uno orientato all'efficienza. Logits è ora aperta per prenotazioni da parte di studenti e ricercatori di tutto il mondo.