Dos de los laboratorios de inteligencia artificial más influyentes del mundo mantienen un choque público por un proyecto de ley en Illinois que podría definir cómo la industria tecnológica responde ante los daños causados por sus sistemas de IA. Mientras OpenAI ha expresado su respaldo a la normativa, Anthropic ha emergido como su principal crítico, calificándola de extrema en un documento detallado publicado la semana pasada.

El proyecto de ley, conocido como Illinois AI Liability Act, propone crear un marco legal específico para las aplicaciones de inteligencia artificial que limitaría las acciones judiciales contra laboratorios siempre que estos puedan demostrar que implementaron medidas de seguridad razonables. OpenAI ha argumentado que la legislación fomentaría la innovación al reducir la incertidumbre jurídica. Anthropic, en cambio, advierte que la normativa exime a las empresas de responsabilidad por muertes masivas y desastres financieros causados por sus modelos.

La disputa tiene implicaciones directas para América Latina, donde varios países están diseñando sus propios marcos regulatorios de IA. Brasil ya ha presentado un proyecto de ley federal de inteligencia artificial y México trabaja en regulaciones sectoriales. El enfoque de Illinois, dependiendo de cómo evolucione, podría influir en esos procesos legislativos, especialmente si se convierte en un modelo adoptado por otras jurisdicciones estadounidenses.

Lo que está en juego trasciende las fronteras de Illinois. Si la ley se aprueba como está redactada actualmente, podría establecer un precedente que atraiga a empresas de IA a radicarse en el estado para beneficiarse de las protecciones legales, lo que a su vez podría reducir la presión regulatoria global sobre la industria en su conjunto. Anthropic ha comenzado a reunir aliados en el sector tecnológico para pedir modificaciones sustanciales antes de cualquier votación.