Gradient, sebuah laboratorium AI terdistribusi, telah meluncurkan kerangka kerja pembelajaran penguatan terdistribusi Echo-2 yang bertujuan untuk mengatasi hambatan efisiensi dalam pelatihan penelitian AI. Menurut ChainCatcher, Echo-2 mencapai pengurangan yang signifikan dalam biaya pascapelatihan untuk model dengan 30 miliar parameter, menurun dari $4,500 menjadi $425. Kemajuan ini memungkinkan peningkatan lebih dari sepuluh kali lipat dalam throughput penelitian dalam anggaran yang sama.
Kerangka kerja ini menggunakan teknologi pemisahan penyimpanan-komputasi untuk pelatihan asinkron, memindahkan kekuatan pengambilan sampel yang luas ke instans GPU yang tidak stabil dan GPU heterogen berdasarkan Parallax. Ini menggabungkan ketidakstabilan terbatas, penjadwalan toleran kesalahan instans, dan protokol komunikasi Lattica yang bersifat proprietary untuk meningkatkan efisiensi pelatihan sambil mempertahankan akurasi model. Bersamaan dengan peluncuran kerangka kerja ini, Gradient akan memperkenalkan platform RLaaS Logits, yang bertujuan untuk mengalihkan penelitian AI dari paradigma yang intensif modal menjadi yang berorientasi efisiensi. Logits sekarang terbuka untuk reservasi oleh siswa dan peneliti di seluruh dunia.
