Categories

Anthropic demanda al gobierno de EE. UU. por restricciones al uso militar de su IA

Anthropic demanda al gobierno de EE. UU. por restricciones al uso militar de su IA

La empresa tecnológica Anthropic presentó una demanda contra el gobierno de Estados Unidos tras ser catalogada por el Departamento de Defensa de Estados Unidos como un “riesgo para la cadena de suministro de seguridad nacional”, una medida que limita el uso de su tecnología de inteligencia artificial en contratos militares.

La compañía, con sede en California, impugnó la decisión en un tribunal federal de San Francisco, alegando que la designación es ilegal y una represalia política después de que la empresa se negara a permitir el uso sin restricciones de su modelo de IA en operaciones militares.

Conflicto por el uso militar de la IA

El conflicto surgió luego de que el Pentágono exigiera a Anthropic autorizar que su sistema de inteligencia artificial, Claude (modelo de IA), pudiera utilizarse para cualquier uso legal por parte de las Fuerzas Armadas, incluyendo aplicaciones militares avanzadas.

Sin embargo, la empresa se negó a eliminar ciertas restricciones de seguridad. Según su política interna, la tecnología no debe emplearse para vigilancia masiva de ciudadanos ni para armas totalmente autónomas, argumentando que los modelos actuales de IA aún no son suficientemente fiables para ese tipo de aplicaciones.

Tras la negativa, el gobierno del presidente Donald Trump ordenó a las agencias federales dejar de utilizar la tecnología de la compañía y el Pentágono la incluyó en una lista de riesgos para la cadena de suministro, lo que obliga a contratistas de defensa a demostrar que no emplean sus sistemas en proyectos militares.

Una medida sin precedentes

La clasificación aplicada a Anthropic es considerada extraordinaria, ya que este mecanismo suele utilizarse contra empresas extranjeras sospechosas de vínculos con gobiernos rivales, como el gigante tecnológico chino Huawei.

Es la primera vez que una compañía estadounidense de tecnología es incluida en esa categoría, lo que podría afectar significativamente su modelo de negocio, especialmente en el sector de defensa y contratos gubernamentales.

Argumentos de la empresa

En su demanda judicial, Anthropic sostiene que las medidas del gobierno violan derechos constitucionales, ya que castigan a la empresa por mantener una postura ética sobre el uso de la inteligencia artificial.

La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso protegido”, señala el documento presentado ante el tribunal.

La empresa fue fundada en 2021 por los hermanos Dario Amodei y Daniela Amodei, antiguos investigadores de OpenAI, y se ha posicionado como una de las principales compañías de IA enfocadas en seguridad y control de riesgos tecnológicos.

Impacto en la carrera global por la IA

El caso podría tener consecuencias importantes para la industria tecnológica, ya que definirá hasta qué punto el gobierno puede obligar a las empresas privadas a permitir usos militares de sus sistemas de inteligencia artificial.

Forgot Password

Header Ad
Right Ad
Header Ad