El director ejecutivo de OpenAI, Sam Altman, confirmó que la compañía mantiene conversaciones con el Departamento de Defensa de Estados Unidos para evaluar la implementación de sus modelos de inteligencia artificial en entornos clasificados.
La información, divulgada por The Wall Street Journal, señala que aún no se ha concretado ningún acuerdo y que las negociaciones podrían no prosperar.
Límites y “líneas rojas”
Según una comunicación interna enviada a empleados y citada por el rotativo, Altman busca definir una hoja de ruta que permita la colaboración con el sector defensa sin vulnerar los principios de la empresa.
En el documento, el ejecutivo plantea que cualquier contrato debería excluir usos considerados ilegales o incompatibles con sus políticas, como la vigilancia masiva dentro del territorio estadounidense o el desarrollo de armas ofensivas autónomas.
Además, OpenAI estaría considerando mecanismos técnicos —más allá de cláusulas contractuales— para garantizar el cumplimiento de estas restricciones. Entre las opciones figura limitar el acceso a sus modelos únicamente a través de servicios en la nube, lo que impediría su aplicación en sistemas autónomos sin supervisión humana.
Altman también indicó que la empresa desplegaría salvaguardas técnicas adicionales y personal especializado para colaborar con el Gobierno estadounidense y asegurar un uso adecuado de la tecnología, con la posibilidad de ofrecer esquemas similares a países aliados.
Contexto: tensiones con Anthropic
Las conversaciones surgen en medio de desacuerdos entre el Pentágono y la empresa de IA Anthropic. Su director ejecutivo, Dario Amodei, habría rechazado solicitudes gubernamentales que contemplaban permitir “todos los usos legales” de su modelo Claude, insistiendo en mantener prohibiciones explícitas sobre vigilancia doméstica masiva y armamento autónomo ofensivo.
En declaraciones recientes a la cadena CNBC, Altman manifestó que no considera apropiado que el Gobierno invoque la Ley de Producción de Defensa (DPA, por sus siglas en inglés) para presionar a las empresas tecnológicas. Esta normativa, promulgada en 1950 durante la Guerra de Corea, faculta al presidente de Estados Unidos a exigir que compañías privadas prioricen contratos vinculados a la seguridad nacional y amplíen su capacidad productiva.
Altman sostuvo que su intención es contribuir a reducir las tensiones y encontrar un punto de equilibrio que permita aprovechar el potencial de la inteligencia artificial en materia de defensa, sin traspasar límites éticos fundamentales.




