El Centro de Estándares e Innovación en IA (CAISI) del Instituto Nacional de Estándares y Tecnología (NIST), dependiente del Departamento de Comercio de Estados Unidos, anunció este martes acuerdos con Google DeepMind, Microsoft y xAI para someter a revisión los modelos de inteligencia artificial (IA) antes de que se pongan a disposición del público.
Evaluaciones previas
Según el comunicado oficial, la ampliación de la colaboración con los principales laboratorios de IA permitirá realizar evaluaciones previas al despliegue y otras investigaciones específicas para medir mejor las capacidades de la IA de vanguardia y mejorar la seguridad de estos sistemas.
Hasta ahora, la Administración de Trump había defendido un enfoque de no intervención, con el objetivo de dar vía libre a Silicon Valley en el desarrollo de esta tecnología y así competir con China en la carrera global por la IA.
Cambio de postura
Un factor determinante en este giro habría sido el reciente anuncio de la empresa Anthropic sobre su modelo de ciberseguridad Mythos, un programa que la compañía decidió no lanzar al público debido a su extrema capacidad para identificar vulnerabilidades críticas en software, lo que podría desencadenar una crisis de ciberseguridad.
Este cambio coincide también con una reestructuración en la política tecnológica de la Casa Blanca, tras la salida en marzo de David Sacks, conocido como el “zar de la IA”.
Nueva dirección política
Ahora, la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent, han asumido un papel protagonista en la definición de la política de IA, marcando un nuevo enfoque hacia la regulación preventiva y la cooperación internacional.
Impacto esperado
La iniciativa busca establecer un marco de confianza en el despliegue de modelos avanzados, garantizando que los sistemas de IA sean evaluados en aspectos como seguridad, resiliencia, transparencia y responsabilidad antes de llegar al público.
Con este paso, Estados Unidos se suma a la tendencia global de reforzar la supervisión de la inteligencia artificial, en un contexto donde los riesgos asociados a la ciberseguridad y la desinformación se han convertido en prioridades estratégicas.




