Gradient, một phòng thí nghiệm AI phân tán, đã ra mắt nền tảng Echo-2, một khuôn khổ học tăng cường phân tán nhằm vượt qua các rào cản về hiệu suất trong đào tạo nghiên cứu AI. Theo ChainCatcher, Echo-2 đạt được sự giảm đáng kể trong chi phí sau đào tạo cho một mô hình 30 tỷ tham số, giảm từ 4.500 đô la xuống 425 đô la. Sự tiến bộ này cho phép tăng hơn mười lần thông lượng nghiên cứu trong cùng một ngân sách.
Nền tảng sử dụng công nghệ tách biệt tính toán-lưu trữ cho việc đào tạo không đồng bộ, chuyển giao sức mạnh lấy mẫu lớn cho các phiên bản GPU không ổn định và các GPU không đồng nhất dựa trên Parallax. Nó bao gồm độ trễ giới hạn, lập lịch chịu lỗi cho phiên bản và giao thức truyền thông Lattica độc quyền để nâng cao hiệu quả đào tạo trong khi vẫn duy trì độ chính xác của mô hình. Cùng với việc phát hành nền tảng, Gradient dự kiến sẽ giới thiệu nền tảng RLaaS Logits, nhằm chuyển dịch nghiên cứu AI từ mô hình tiêu tốn vốn sang một mô hình tập trung vào hiệu quả. Logits hiện đã mở cho việc đặt chỗ bởi các sinh viên và nhà nghiên cứu trên toàn thế giới.
