本周,《华尔街日报》(WSJ)的一则深度报道震惊了科技界:美国军队涉嫌在针对委内瑞拉总统马杜罗的行动中使用了 Anthropic 公司的 Claude 模型。
🕵️♂️ Claude 参与特种作战?
报道指出,尽管 Anthropic 一直标榜自己是“安全”的人工智能公司,但其模型已通过合作伙伴渗透进军事领域:
背景: Anthropic 的公开政策严禁将 AI 用于暴力、武器开发或监控。关键纽带: Claude 进入国防部体系是通过 Palantir Technologies 实现的,后者的软件被广泛用于美军和联邦执法部门。罗生门: 尽管 Anthropic 否认了相关说法,但记者提到有内部员工曾私下询问该模型在“抓捕行动”中具体发挥了什么作用。
⚔️ 五角大楼向“四大巨头”施压
据 Axios 援引消息人士称,美国国防部正在向 Anthropic、Google、OpenAI 和 xAI 这四家领先的 AI 公司施压,要求其允许军方将技术用于“所有合法目的”。这意味着民用聊天机器人与军事工具之间的界限正在变得模糊。
🚀 “蜂群”计划:马斯克与 OpenAI 进场
与此同时,一项价值 1 亿美元 的自动武器软件竞标浮出水面:
SpaceX 与 xAI (马斯克): 计划开发一种能管理“无人机蜂群”的系统,将指挥官的语音指令转化为数字指令。OpenAI: 正在支持 Applied Intuition 公司的竞标,侧重于开发“任务控制中心”元素,以处理语音指令分发。
💎 为什么加密货币投资者需要关注?
AI 板块代币: 此类新闻直接影响 AI 赛道相关代币(如 $FET,
NEAR 等)的情绪,展示了 AI 技术在极端现实场景中的应用。去中心化的价值: 随着政府对顶级大模型的控制加深,不受单一实体约束的去中心化 AI 网络的价值愈发凸显。
💡 观点: 我们正在进入“自动战争”时代,未来的胜负可能取决于模型的学习速度。
你认为 AI 公司应该保持中立,还是与军方的合作已不可避免?欢迎在评论区讨论!