OpenAI ha decidido posicionar su apoyo detrás del proyecto de ley SB 3444 del estado de Illinois, una propuesta legislativa que busca proteger a los principales laboratorios de inteligencia artificial de demandas por daños catastróficos, siempre que demuestren haber cumplido con ciertos estándares de seguridad y transparencia. El anuncio, recogido por Quartz, marca un giro significativo en la estrategia de relaciones gubernamentales de la empresa, que ha preferido defender un enfoque federal unificado frente a un mosaico de normativas estatales contradictorias.
El proyecto de ley, conocido también como Ley de Seguridad de la Inteligencia Artificial, establece una definición precisa de lo que considera “daños críticos”: aquellos incidentes que provoquen la muerte o lesiones graves a cien o más personas, daños materiales superiores a mil millones de dólares, o el uso de inteligencia artificial por parte de actores maliciosos para desarrollar armas químicas, biológicas, radiológicas o nucleares. Para beneficiarse de la protección legal, las empresas deberán demostrar que no causaron el daño de forma intencional o imprudente y que publican informes públicos sobre sus prácticas de seguridad.
El umbral para considerarse un “modelo frontera” bajo esta ley es cualquier sistema entrenado con una inversión superior a cien millones de dólares en capacidad de cálculo. Este baremo alcanzaría automáticamente a los actores más grandes del sector, incluyendo OpenAI, Google, Anthropic, xAI y Meta, según señalan los analistas. La estrategia de OpenAI es clara: influir en la configuración normativa antes de que el Congreso estadounidense adopte una regulación federal más restrictiva.
La propuesta contiene una cláusula de subordinación federal, lo que significa que dejará de aplicarse automáticamente si el Congreso promulga legislación federal que cubra el mismo terreno. Este detalle ha sido crucial para calmar las objeciones de quienes prefieren un marco normativo nacional frente a la fragmentación regulatoria actual. Caitlin Niedermeyer, representante de OpenAI, testificó ante la asamblea estatal oponiéndose explícitamente a lo que describió como un “parche de requisitos estatales inconsistentes”.
El contexto político es relevante: OpenAI, Meta, Alphabet y Microsoft gastaron colectivamente cincuenta millones de dólares en actividades de lobby federal durante los primeros nueve meses de 2025. La empresa también ha anunciado la apertura de su primera oficina en Washington D.C. a principios de 2026. Mientras tanto, estados como California y Nueva York ya han promulgado leyes de transparencia en inteligencia artificial, pero Illinois busca ir un paso más allá al definir límites específicos de responsabilidad civil.
Lee la historia completa en Quartz.
Comentarios (0)
Sé el primero en comentar.