La Agencia de Seguridad Nacional de Estados Unidos está utilizando el modelo Mythos de Anthropic pese a que la empresa figuraba en una lista de restricciones para agencias federales, según revelaron Axios y Reuters. El hallazgo ha reabierto el debate sobre los controles de exportación de tecnología de inteligencia artificial y la capacidad del gobierno estadounidense para vigilar el uso que sus propias agencias hacen de modelos avanzados.
La lista negra, mantenida por el Departamento de Comercio, impedía teóricamente que empresas como Anthropic vendieran sus servicios a organismos federales sin autorización expresa. Sin embargo, el uso de Mythos por parte de la NSA sugiere que las excepciones se otorgan con mayor facilidad de lo que los informes públicos indican. Anthropic no ha confirmado ni desmentido públicamente su relación con la agencia.
El modelo Mythos es la versión más reciente de la familia de modelos de Anthropic, diseñado para tareas de análisis y razonamiento en entornos de alta seguridad. Su adopción por la principal agencia de inteligencia electrónica del país supone un espaldarazo comercial para la startup, que ha mantenido un perfil más discreto que OpenAI en sus relaciones con el sector público.
Expertos en política tecnológica han señalado que el episodio expone una debilidad estructural en el régimen de controles de IA: las mismas herramientas diseñadas para proteger la infraestructura crítica pueden ser desplegadas internamente por quienes definen esas protecciones. La falta de transparencia en los procesos de excepción deja abierta la posibilidad de que otras agencias estén utilizando modelos igualmente restringidos.
El Chasqui
Comentarios (0)
Sé el primero en comentar.