La Unión Europea se encamina hacia un enfrentamiento sin precedentes con las principales empresas de inteligencia artificial. Una nueva interpretación del Tribunal de Justicia de la UE establece que los sistemas de IA que utilizan datos personales de ciudadanos europeos para entrenar sus modelos podrían estar sujetos a los mismos derechos de supresión que aplican a los motores de búsqueda y las plataformas digitales tradicionales.

La Ley del Olvido, en su formulación actual, permite a cualquier ciudadano europeo exigir que se eliminen enlaces a información obsoleta o inexacta sobre su persona. El Tribunal ha dictaminado ahora que si esos datos fueron utilizados para entrenar un modelo de lenguaje, el derecho a la supresión podría traducirse en la obligación de que el sistema de IA «olvide» efectivamente esa información, lo que en la práctica requeriría un reentrenamiento completo del modelo sin esos datos.

OpenAI, Google, Anthropic y otras empresas que entrenan sus modelos con datos extraídos de internet se enfrentan a un desafío sin solución técnica clara. Los modelos de lenguaje grande no almacenan datos de entrenamiento de forma explícita y accesible; el conocimiento se distribuye en los parámetros del modelo de manera difusa, lo que hace técnicamente difícil identificar y eliminar información específica de un individuo sin degradar el rendimiento general del sistema.

La situación plantea interrogantes fundamentales sobre cómo se relacionan los derechos individuales con sistemas de IA que aprenden de forma estadística a partir de cantidades masivas de datos. Si cada ciudadano europeo pudiera exigir la eliminación de sus datos de los modelos de IA, el costo y la complejidad de cumplir podrían hacer inviable operar ciertos productos en el mercado europeo.

Para América Latina, la decisión europea marca un precedente que inevitablemente influirá en la regulación regional. Varios países latinoamericanos, incluyendo Brasil, Chile y Colombia, están debatiendo marcos de protección de datos que incluyen disposiciones sobre decisiones automatizadas y uso de datos para entrenamiento de IA. El modelo europeo, con su énfasis en derechos individuales sobre los intereses de las corporations tecnológicas, podría ganar tracción en legislaciones que históricamente han seguido de cerca los estándares europeos.