El Pentágono exige a las mayores empresas de inteligencia artificial, incluidas OpenAI y Anthropic, que integren sus tecnologías en redes militares clasificadas, y sin las restricciones que normalmente se imponen a los usuarios. Así lo informa la agencia Reuters.
Los militares quieren IA sin restricciones
En un evento reciente en la Casa Blanca, el director tecnológico del Pentágono, Emil Michael, dijo a los representantes de empresas tecnológicas que el departamento militar busca obtener acceso a modelos de inteligencia artificial tanto en dominios abiertos como clasificados.
«Estamos trabajando en el despliegue de capacidades avanzadas de IA en todos los niveles de clasificación», dijo un funcionario a Reuters, que deseaba permanecer en el anonimato.
Este es otro episodio en las negociaciones en curso entre el Pentágono y las principales empresas de IA generativa sobre cómo Estados Unidos utilizará la inteligencia artificial en futuros campos de batalla. Y allí ya dominan enjambres de drones autónomos, robots y ciberataques.
Las declaraciones de Michael seguramente agudizarán el ya candente debate entre el deseo de los militares de utilizar IA sin restricciones y el deseo de las empresas tecnológicas de establecer límites en el uso de sus herramientas.
¿Dónde están los límites permitidos?
Hoy en día, muchas empresas de IA están creando herramientas especiales para las fuerzas armadas de Estados Unidos. La mayoría de ellas funcionan solo en redes abiertas, que generalmente se utilizan para la administración militar. Y solo una empresa, Anthropic, está disponible en sistemas clasificados a través de terceros, pero el gobierno sigue estando limitado por la política de uso de la empresa.
Las redes clasificadas se utilizan para trabajar con información más sensible: planificación de misiones, orientación de armas a objetivos. Reuters no pudo averiguar cómo y cuándo exactamente el Pentágono planea desplegar chatbots de IA en sistemas clasificados.
Los funcionarios militares esperan utilizar el poder de la inteligencia artificial para sintetizar información y ayudar en la toma de decisiones. Pero aunque estas herramientas son impresionantes, pueden cometer errores e incluso inventar información que a primera vista parece creíble. En sistemas clasificados, tales errores pueden tener consecuencias mortales, advierten los investigadores de IA.
OpenAI cede, Anthropic se resiste
Las empresas de IA intentan minimizar las consecuencias negativas de sus productos, incorporando mecanismos de defensa en los modelos y exigiendo a los clientes que cumplan con ciertos principios. Pero a los funcionarios del Pentágono les irritan tales restricciones; afirman que deben poder utilizar herramientas comerciales de IA siempre que no violen la legislación estadounidense.
Esta semana, OpenAI firmó un acuerdo con el Pentágono que permite a los militares utilizar sus herramientas, incluido ChatGPT, en la red abierta genai.mil. Ya está disponible para más de 3 millones de empleados del departamento de defensa. Como parte del acuerdo, OpenAI aceptó eliminar muchas de sus restricciones habituales para los usuarios, aunque algunas medidas de seguridad permanecen.
Google de Alphabet y xAI previamente firmaron acuerdos similares.
Un representante de OpenAI subrayó que el acuerdo de esta semana se refiere exclusivamente al uso en sistemas abiertos a través de genai.mil. La expansión de este acuerdo requerirá un nuevo contrato o uno modificado.
Claude contra armas autónomas
Sin embargo, las negociaciones entre el competidor de OpenAI, la empresa Anthropic, y el Pentágono se han vuelto significativamente más tensas. Los ejecutivos de Anthropic dijeron a los funcionarios militares que no quieren que sus tecnologías se utilicen para la orientación autónoma de armas y la vigilancia interna en Estados Unidos. Los productos de Anthropic incluyen el chatbot Claude.
«Anthropic está comprometida con la defensa del liderazgo de América en el campo de la IA y ayudar al gobierno de EE. UU. a contrarrestar amenazas externas, proporcionando a nuestras fuerzas armadas acceso a las capacidades más avanzadas de inteligencia artificial», dijo un representante de Anthropic. «Claude ya se utiliza ampliamente para tareas de seguridad nacional por parte del gobierno de EE. UU., y estamos teniendo discusiones productivas con el departamento de defensa sobre formas de continuar este trabajo».
Las negociaciones muestran una creciente tensión entre el deseo de los militares de obtener acceso ilimitado a tecnologías avanzadas de IA y el deseo de las empresas tecnológicas de mantener el control sobre el uso de sus desarrollos. Este tema es especialmente agudo en el contexto de operaciones militares clasificadas, donde los errores de IA pueden tener consecuencias catastróficas.
Opinión de IA
Desde el punto de vista del análisis de datos de máquinas, la situación recuerda un patrón clásico de colaboración entre la industria militar y el gobierno durante la Guerra Fría. En ese entonces, el Pentágono también presionaba a las empresas privadas, exigiendo acceso a desarrollos avanzados, desde semiconductores hasta tecnologías satelitales. La diferencia es que los modelos de IA modernos son sistemas "vivos" que aprenden y evolucionan, a diferencia del equipo estático del pasado.
La implementación técnica de los requisitos del Pentágono enfrenta un problema fundamental: las redes clasificadas están físicamente aisladas de internet, lo que significa que no es posible actualizar los modelos en tiempo real. Los sistemas de IA en tales condiciones se volverán rápidamente obsoletos, perdiendo relevancia en sus conocimientos.
#AI #OpenAI #Anthropic #BinanceSquare #Write2Earn
