O Pentágono exige que as maiores empresas de inteligência artificial, incluindo OpenAI e Anthropic, integrem suas tecnologias em redes militares secretas, sem as restrições que normalmente são impostas aos usuários. Isso foi relatado pela agência Reuters.

Os militares querem IA sem restrições

Em um recente evento na Casa Branca, o diretor técnico do Pentágono, Emil Michael, afirmou a representantes de empresas de tecnologia que o departamento militar busca acesso a modelos de inteligência artificial tanto em domínios abertos quanto classificados.

"Estamos trabalhando na implantação de capacidades avançadas de IA em todos os níveis de confidencialidade", disse um funcionário que pediu para permanecer anônimo à Reuters.

Este é mais um episódio nas negociações em andamento entre o Pentágono e as principais empresas de IA generativa sobre como os EUA usarão a inteligência artificial nos campos de batalha do futuro. E já lá dominam enxames autônomos de drones, robôs e ciberataques.

As declarações de Michael certamente acirrarão ainda mais o debate já quente entre o desejo dos militares de usar IA sem restrições e a vontade das empresas de tecnologia de estabelecer limites para a aplicação de suas ferramentas.

Onde estão os limites do aceitável?

Hoje, muitas empresas de IA estão criando ferramentas especiais para as forças armadas dos EUA. A maioria delas opera apenas em redes abertas, que são normalmente usadas para administração militar. E apenas uma empresa - a Anthropic - está disponível em sistemas classificados através de terceiros, mas o governo ainda está vinculado à política de uso da empresa.

Redes classificadas são usadas para lidar com informações mais sensíveis: planejamento de missões, direcionamento de armas a alvos. A Reuters não conseguiu descobrir como e quando exatamente o Pentágono planeja implantar chatbots de IA em sistemas classificados.

Funcionários militares esperam usar o poder da inteligência artificial para sintetizar informações e ajudar na tomada de decisões. Mas embora essas ferramentas sejam impressionantes, elas podem cometer erros e até inventar informações que à primeira vista parecem plausíveis. Em sistemas classificados, tais erros podem ter consequências fatais, alertam os pesquisadores de IA.

OpenAI faz concessões, Anthropic resiste

Empresas de IA tentam minimizar as consequências negativas de seus produtos, incorporando mecanismos de proteção nos modelos e exigindo que os clientes sigam certos princípios. Mas os funcionários do Pentágono ficam irritados com tais restrições - eles afirmam que devem ter a capacidade de usar ferramentas comerciais de IA, desde que não violem a legislação americana.

Nesta semana, a OpenAI firmou um acordo com o Pentágono, permitindo que os militares usem suas ferramentas, incluindo o ChatGPT, na rede aberta genai.mil. Ela já está disponível para mais de 3 milhões de funcionários do departamento de defesa. Como parte do acordo, a OpenAI concordou em remover muitas de suas restrições usuais para usuários, embora algumas medidas de segurança tenham permanecido.

Google da Alphabet e xAI anteriormente firmaram acordos semelhantes.

Um representante da OpenAI enfatizou que o acordo desta semana diz respeito exclusivamente ao uso em sistemas abertos através do genai.mil. A expansão deste acordo exigirá um novo ou modificado contrato.

Claude contra armas autônomas

Por outro lado, as negociações entre o concorrente da OpenAI, a Anthropic, e o Pentágono foram significativamente mais tensas. Os executivos da Anthropic disseram a funcionários militares que não desejam que suas tecnologias sejam usadas para direcionamento autônomo de armas e vigilância interna nos EUA. Os produtos da Anthropic incluem o chatbot Claude.

"A Anthropic está comprometida em proteger a liderança da América em IA e ajudar o governo dos EUA a enfrentar ameaças externas, proporcionando aos nossos militares acesso às capacidades mais avançadas de inteligência artificial", disse um representante da Anthropic. - "Claude já está amplamente utilizado para tarefas de segurança nacional pelo governo dos EUA, e estamos tendo discussões produtivas com o ministério da guerra sobre maneiras de continuar esse trabalho."

As negociações mostram uma crescente tensão entre o desejo dos militares de obter acesso irrestrito a tecnologias avançadas de IA e a vontade das empresas de tecnologia de manter controle sobre o uso de seus desenvolvimentos. Essa questão é particularmente aguda no contexto de operações militares classificadas, onde erros de IA podem ter consequências catastróficas.

Opinião IA

Do ponto de vista da análise de dados por máquina, a situação lembra um padrão clássico de cooperação militar-industrial da época da Guerra Fria. Naquela época, o Pentágono também pressionava empresas privadas, exigindo acesso a desenvolvimentos avançados - de semicondutores a tecnologias de satélites. A diferença é que os modernos modelos de IA representam sistemas 'vivos' que aprendem e se desenvolvem, ao contrário do equipamento estático do passado.

A implementação técnica das exigências do Pentágono enfrenta um problema fundamental: redes classificadas estão fisicamente isoladas da internet, o que significa a impossibilidade de atualizar modelos em tempo real. Sistemas de IA nessas condições rapidamente se tornarão obsoletos, perdendo a relevância do conhecimento.

#AI #OpenAI #Anthropic #BinanceSquare #Write2Earn

$BTC

BTC
BTC
68,616.43
-3.05%