Mercor se había posicionado como una de las promesas más brillantes del ecosistema de startups de inteligencia artificial: una plataforma que utiliza modelos de lenguaje para automatizar y mejorar los procesos de reclutamiento, conectando a empresas con candidatos a través de evaluaciones asistidas por algoritmos. Su modelo de negocio, que implica analizar currículums, realizar entrevistas preliminares y generar perfiles de aptitud, requiere acceso a cantidades masivas de datos personales sensibles.
La brecha de datos, reportada originalmente en los círculos de seguridad tecnológica y rápidamente amplificada en Hacker News, expone exactamente el tipo de información que los expertos en privacidad llevaban meses advirtiendo que estaba en riesgo. Historiales laborales, identificaciones personales, respuestas a entrevistas en video y calificaciones generadas por los propios modelos de Mercor ahora podrían estar en manos de actores maliciosos.
Lo que hace particularmente problemática esta situación es la disjuntiva entre la confianza que el mercado depositó en Mercor y la realidad operativa de una empresa que, a pesar de su valuación de 10.000 millones, aún no había implementado los estándares de seguridad que el mercado financiero tradicional exigiría a una empresa de ese tamaño. Varios investigadores en seguridad指了指 que las startups en etapa de crecimiento rápido frecuentemente priorizan la adquisición de usuarios sobre la infraestructura de protección de datos.
El incidente llega en un momento delicado para el sector. Reguladores en Estados Unidos y la Unión Europea han intensificado su atención sobre las plataformas de IA que manejan información personal, y el marco regulatorio europeo ya contempla sanciones significativas para empresas que fallen en la protección de datos de los usuarios. Mercor no ha publicado detalles oficiales sobre el alcance de la brecha ni sobre las medidas correctivas que está implementando.
Lee la historia completa en TechCrunch.
Comentarios (0)
Sé el primero en comentar.