OpenAI ha confirmado esta semana que un actor malicioso logró comprometer el proceso de distribución de su aplicación de ChatGPT para macOS mediante una técnica conocida como ataque a la cadena de suministro de software. El punto de entrada fue la biblioteca HTTP Axios, ampliamente utilizada en proyectos basados en JavaScript y TypeScript.

Según publicó la empresa en su blog de seguridad, el 31 de marzo de 2026 el flujo de trabajo automatizado de GitHub Actions que firma digitalmente la aplicación de escritorio de ChatGPTdescargó e ejecutó una versión manipulada de Axios, concretamente la 1.14.1, que había sido reemplazada en el registro oficial de npm por una versión maliciosa. Esta técnica de secuestrar dependencias durante el proceso de compilación se ha convertido en uno de los vectores de ataque más difíciles de detectar porque no requiere vulnerar directamente los sistemas de la víctima.

El impacto potencial abarca tres productos de la empresa: la aplicación de escritorio ChatGPT Desktop, el agente de programación Codex y la plataforma de infraestructura Atlas. Usuarios que descargaron versiones firmadas por OpenAI entre finales de marzo y principios de abril podrían haber recibido binarios comprometidos. La compañía ha aclarado que no hay evidencia de que las credenciales de usuario o las conversaciones con ChatGPT hayan sido accedidas, aunque la investigación continúa.

La respuesta de OpenAI ha sido emitir nuevos certificados de firma de código y preparar una actualización que substituirá la dependencia comprometida por una versión verificada. La empresa también ha comprometido a revisar su proceso de compilación para incluir verificación hash de todas las dependencias antes de su uso en flujos de trabajo firmados.

Este incidente se suma a una cadena de ataques a la cadena de suministro de software que ha afectado a todo el sector tecnológico en los últimos dos años. El año pasado, una manipulación similar de la biblioteca XZ Utils dejó al descubierto una puerta trasera en sistemas Linux a punto de ser distribuidos masivamente. La diferencia en este caso es que OpenAI, como empresa que comercializa inteligencia artificial, enfrenta un nivel de escrutinio especialmente alto sobre cómo protege su infraestructura de desarrollo.

La comunidad de seguridad ha señalado que el modelo de GitHub Actions con permisos de firma de código es inherentemente delicado: cualquier compromiso de las credenciales o del entorno de ejecución del flujo de trabajo puede tener consecuencias de largo alcance. Varios investigadores han pedido que las empresas adopten una práctica conocida como hermetic builds, en la que cada compilación se ejecuta en un entorno completamente aislado y verificado, sin acceso a la red durante el proceso.

Lee la historia completa en The Verge.