Trong hai ngày qua, trong đầu tôi luôn hiện lên một hình ảnh.

Một robot gia đình, đi kèm với gối từ nhà máy.

Rất nhẹ nhàng, rất chu đáo.

Nhưng tôi đột nhiên cảm thấy điều thực sự quyết định nó có thể bước vào cuộc sống của bạn hay không không phải là cái gối.

Khi nó thay bạn đưa ra quyết định, bạn có đủ tư cách để hỏi, bạn vừa làm điều đó dựa trên gì?

Vì vậy, khi tôi lại thấy câu đó: Khi các đại lý bắt đầu chạm vào tiền, logistics và cơ sở hạ tầng, “tin tôi” sẽ không còn hiệu quả.

Lần đầu tiên tôi không coi nó như một khẩu hiệu.

Mà là khi làm như một lời cảnh báo rất thực tế.

Không phải con người sẽ trở nên xấu, mà là hệ thống một khi không thể kiểm tra lại, thì chắc chắn không xứng đáng để được tin tưởng.

1, họ không đang làm AI nói giỏi hơn, mà đang làm AI có thể xuất trình biên lai.

Tôi hiểu Inference Labs, thật ra chỉ còn lại một câu:

Không phải làm cho mô hình thông minh hơn, mà là làm cho kết luận có thể bị chất vấn hơn.

Không phải chúng tôi đảm bảo nó tính đúng.

Mà là bạn lấy đi chứng minh này,

Không cần tin tôi, tôi cũng có thể tự xác minh.

Họ nói đi nói lại về xác minh có thể chứng minh,

Trong lòng tôi dịch thành bốn chữ: Kết luận có chứng cứ.

2, lĩnh vực kỹ thuật này dễ bị viết thành khẩu hiệu, thật ra nó rất cứng, những gì họ đang làm, giống như đang lắp đặt nền tảng cho AI.

Trên dòng DSperse này, những gì họ làm, nói trắng ra không lãng mạn.

Phân tách mô hình lớn.

Lát cắt.

Một chút một một biên dịch vào mạch điện không biết.

Nghe có vẻ khô khan, thậm chí có chút ngớ ngẩn.

Nhưng tôi ngày càng cảm thấy, đây chính là hình dáng mà cơ sở hạ tầng nên có.

Giao diện mượt mà đến đâu, cũng chỉ là lớp trải nghiệm, quá trình suy luận có thể được kiểm toán, có thể được xem xét lại, mới là lớp an toàn thực sự.

3, điều tôi thích nhất ở IL: họ thừa nhận thế giới sẽ thay đổi, TruthTensor đưa hiện tượng trôi dạt ra bàn.

Phần lớn các bài đánh giá mặc định thế giới là tĩnh.

Đầu vào cố định, phân bố ổn định.

Nhưng thực tế không phải vậy.

TruthTensor khiến tôi thật sự cảnh giác một điều là cùng một mô hình, cùng một gợi ý, cùng một dữ liệu, trong thời gian ngắn trông có vẻ rất tuân thủ quy tắc, kéo dài thời gian, lại sẽ từ từ lệch khỏi ràng buộc ban đầu.

Nó không phải đột nhiên sai.

Mà là đang trôi dạt.

Điều này thật tàn nhẫn.

Cũng rất trung thực.

Bạn không thừa nhận thế giới động,

Thì không thể nói đến hệ thống đáng tin.

4, nói về kết quả, chỉ nói về cái có thể xác minh, tôi thích coi những điều này như trạng thái hiện trường.

Tôi vừa xem lại bảng điều khiển trên trang web chính thức. Đến thời điểm tôi nhìn thấy trạng thái trang này:

- Số lượng chứng minh tích lũy: 272M

- Số lượng thợ mỏ tham gia: 1402

- Tỷ lệ xác thực thành công: khoảng 70%

Tại sao tôi lại muốn trích dẫn những con số này?

Không phải vì chúng lớn, mà vì chúng không phải là khẩu hiệu, mà là dấu vết hoạt động mà bạn có thể kiểm tra lại bất cứ lúc nào.

Chúng giống như hệ thống đang thở, không phải áp phích.

5, ranh giới của IL cũng phải được nhìn thấy, không viết về rủi ro, thì thật sự là không có trách nhiệm.

Nếu bạn muốn tôi nói một câu cho hướng đi này, tôi chắc chắn sẽ viết ra ba điểm này:

Thứ nhất, phụ thuộc vào con đường là vấn đề thật sự.

Cơ sở hạ tầng một khi gắn bó với một số hệ sinh thái hoặc cấu trúc tính toán, sự thay đổi bên ngoài sẽ bị phóng đại.

Thứ hai, chi phí và độ trễ của chứng minh, sẽ không biến mất chỉ bằng khẩu hiệu.

Đây là một dự án dài hạn, không phải phép màu ngắn hạn.

Thứ ba, AI có thể xác minh trong giai đoạn đầu,

Tự nhiên không được yêu thích, khó nói, khó hiểu, khó truyền đạt.

Nhưng tôi lại càng tôn trọng giai đoạn này, vì nền tảng thực sự, vốn không nên dựa vào cảm xúc.

6, tôi chỉ muốn để lại một câu hỏi, cho tất cả những ai chuẩn bị đưa AI vào thực tế.

Khi agent của bạn thật sự bắt đầu chạm vào tiền, chạm vào khóa cửa, chạm vào logistics, chạm vào cơ sở hạ tầng, bạn hy vọng nó nói với bạn rằng: “Hãy tin tôi.”

Vẫn là “Đây là chứng minh tôi vừa đưa ra quyết định này, bạn có thể tự xác minh.”

Bạn sẽ chọn cái nào?

@inference_labs

#InferenceLabs #VerifiableAI #zkML