En una carta dirigida a los residentes de Tumbler Ridge, Columbia Británica, Sam Altman, director ejecutivo de OpenAI, expressed su pesar profundo por el hecho de que su empresa no notify a las fuerzashardenia sobre la cuenta de ChatGPT vinculada al sospechoso del tiroteo masivo que dejó víctimas fatales en la localidad canadiense. La disculpa llega en un momento en que la empresa enfrenta crecientereproche público sobre su gestión del incidente.

La comunidad de Tumbler Ridge había críticas strongly a OpenAI por no haber acted con mayor urgencia cuando la empresa tuvo indicios de que la cuenta en cuestión estaba asociada a actividades delictivas. Las autoridades canadienses sostienen que una alerta temprana habría permitido una intervención preventivaready que podría haber salvado vidas.

El caso ha reabierto el debate sobre las obligaciones de las empresas de inteligencia artificial cuando sus sistemas detectan patrones de comportamiento que pueden presagiar actos de violencia. Hasta dónde llega la responsabilidad legal y ética de una empresa de IA cuando su tecnología es utilizada para planificar un ataque sigue siendo un territorio legal inexplorado.

Altman reconoció en su comunicado que OpenAI no dispone de protocolos específicos para este tipo de escenarios, y que la empresa está trabajando en desarrollar procedimientos internos que permitan una respuesta más ágil frente a indicios de abuso. La promesa llega acompañada de una llamada al diálogo con reguladores canadienses para establecer estándares de la industria.