🤖 Claude rơi vào cơn bão địa chính trị: Anthropic và cuộc chơi tuân thủ với Lầu Năm Góc

Trí tuệ nhân tạo đã chính thức trở thành công cụ chiến tranh? Báo cáo điều tra mới nhất của 《Wall Street Journal》(WSJ) đã gây sốc cho giới công nghệ.

📍 Sự kiện cốt lõi:

Theo những người có thông tin, quân đội Mỹ đã sử dụng mô hình Claude AI thuộc Anthropic trong chiến dịch bắt giữ cựu Tổng thống Venezuela Maduro vào tháng trước. Được cho là, mô hình này đã tham gia lập kế hoạch nhiệm vụ, hỗ trợ quân đội tấn công các mục tiêu ở Caracas.

⚠️ Điểm nóng xung đột:

Anthropic sở hữu "hiến pháp" AI nghiêm ngặt nhất thế giới. Công ty quy định rõ ràng cấm sử dụng Claude cho:

Kích động bạo lực. Phát triển vũ khí. Thực hiện giám sát.

Giám đốc điều hành của Anthropic đã nhiều lần cảnh báo về rủi ro của vũ khí tự động. Hiện tại, hợp đồng của công ty này với Lầu Năm Góc đang bị nghi ngờ, điều này có thể gây ra một cuộc tranh luận kịch liệt về việc quản lý AI.

🗣 Phản hồi chính thức:

Người phát ngôn của Anthropic cho biết: "Chúng tôi không thuận tiện bình luận liệu Claude có được sử dụng cho các hành động bí mật cụ thể hay không. Bất kỳ việc sử dụng nào của Claude - dù là khu vực tư nhân hay chính phủ - đều phải tuân theo chính sách sử dụng của chúng tôi."

📉 Tác động đến ngành:

Sự kiện này có thể thúc đẩy xu hướng quản lý chặt chẽ trí tuệ nhân tạo trên toàn cầu. Đối với các nhà đầu tư, điều này có nghĩa là lĩnh vực AI (token AI) sẽ ngày càng chịu ảnh hưởng của địa chính trị và khung đạo đức, chứ không chỉ phụ thuộc vào tiến bộ công nghệ.

Bạn có nghĩ rằng AI nên có quyền từ chối thực hiện các chỉ thị quân sự không? Chào mừng bạn tham gia thảo luận trong phần bình luận! 👇

#AI #Anthropic #Claude #五角大楼 #科技新闻

BTC
BTC
67,446.75
-0.66%