🤖 Claude terjebak dalam badai geopolitik: Pertarungan kepatuhan antara Anthropic dan Pentagon

Apakah kecerdasan buatan telah secara resmi menjadi alat perang? Laporan investigasi terbaru dari "Wall Street Journal" (WSJ) mengejutkan dunia teknologi.

📍 Peristiwa inti:

Menurut sumber yang mengetahui, militer AS menggunakan model AI Claude milik Anthropic dalam operasi penangkapan mantan Presiden Venezuela Maduro bulan lalu. Dikatakan bahwa model tersebut terlibat dalam perencanaan misi, membantu militer dalam menyerang target di Caracas.

⚠️ Fokus konflik:

Anthropic memiliki "konstitusi" AI yang paling ketat di dunia. Kebijakan perusahaan dengan tegas melarang penggunaan Claude untuk:

Menyulut kekerasan. Mengembangkan senjata. Melakukan pemantauan.

CEO Anthropic sebelumnya telah berulang kali memperingatkan tentang risiko senjata otonom. Saat ini, kontrak perusahaan dengan Pentagon menghadapi pertanyaan, yang dapat memicu debat sengit tentang regulasi AI.

🗣 Tanggapan resmi:

Juru bicara Anthropic mengatakan: "Kami tidak bisa berkomentar apakah Claude digunakan untuk misi rahasia tertentu. Setiap penggunaan Claude—baik oleh sektor swasta maupun pemerintah—harus mematuhi kebijakan penggunaan kami."

📉 Dampak industri:

Peristiwa ini dapat mempercepat tren regulasi ketat terhadap kecerdasan buatan di seluruh dunia. Bagi investor, ini berarti sektor AI (token AI) akan semakin dipengaruhi oleh geopolitik dan kerangka etika, bukan hanya bergantung pada kemajuan teknologi.

Apakah Anda percaya AI harus berhak menolak untuk melaksanakan perintah militer? Silakan berdiskusi di kolom komentar! 👇

#AI #Anthropic #Claude #五角大楼 #科技新闻

BTC
BTC
68,195.65
-0.81%