El stratégique entre el Departamento de Defensa de Estados Unidos y las principales empresas de inteligencia artificial ha dado un nuevo giro. Después de que Anthropic informara al Pentágono que no podía autorizar el uso de sus modelos para vigilancia doméstica masiva ni para el desarrollo de sistemas de armas autónomas, Google ha firmado un contrato que amplía significativamente el acceso del Departamento de Defensa a sus herramientas de inteligencia artificial.

El acuerdo, detalles del cual siguen siendo clasificados, fue confirmado por portales de información militar y verificado por medios tecnológicos. Google había trabajado previamente con el Pentágono a través de su programa Project Maven, que utilizaba aprendizaje automático para analizar imágenes de drones. Ese programa generó controversias internas en 2018, cuando miles de empleados de Google firmaron una petición exigiendo que la compañía se retirara de proyectos militares.

La decisión de Anthropic de rechazar el contrato con el Pentágono fue recibida con sorpresa en la industria. La empresa, respaldada por Amazon y Google, ha mantenido una posición públicamente más restrictiva que sus competidores respecto al uso militar de sus modelos. En un comunicado breve, Anthropic señaló que sus principios de seguridad no permitían aplicaciones que implicaran vigilancia masiva de ciudadanos o el desarrollo de sistemas capaces de causar daño irreversible sin supervisión humana directa.

El hueco dejado por Anthropic fue ocupado con rapidez por Google, que ha reforzado su estrategia de diversificación de ingresos más allá de la publicidad digital. El mercado de contratos de defensa e inteligencia representa un segmento de crecimiento atractivo para las empresas de IA, con presupuestos que superan los 10.000 millones de dólares anuales solo en Estados Unidos.

Para América Latina, la expansión de los contratos de IA militar entre grandes tecnológicas y el Pentágono plantea interrogantes sobre el potencial uso de estas tecnologías en operaciones de seguridad regional. Organizaciones de derechos humanos han expresado preocupación por el desarrollo no regulado de armas autônomas y por la aplicación de sistemas de vigilancia basados en IA en contextos de gestión migratoria y control fronterizo.