Demanda histórica: Familias de víctimas en Canadá demandan a OpenAI y Sam Altman

demanda OpenAI

Demanda histórica: Familias de víctimas en Canadá demandan a OpenAI y Sam Altman

Recibe noticias al instante en WhatsApp

 

¿De qué se acusa a OpenAI ante los tribunales de EE. UU.?

Este miércoles 29 de abril de 2026, familiares de las víctimas del trágico tiroteo ocurrido en febrero en Tumbler Ridge, Columbia Británica, presentaron siete demandas federales en San Francisco contra OpenAI y su director ejecutivo, Sam Altman. Los demandantes sostienen que la empresa tuvo conocimiento de los planes del atacante, Jesse van Rootselaar, ocho meses antes de la masacre a través de sus interacciones con ChatGPT, pero omitió alertar a las autoridades.

La acusación central sugiere que OpenAI detectó desde junio de 2025 conversaciones donde el joven de 18 años describía escenarios de violencia extrema. Según el abogado de las familias, Jay Edelson, la empresa habría decidido no reportar estos hallazgos a la policía para evitar el escrutinio público sobre el volumen de contenido violento en su plataforma, lo cual podría haber descarrilado su inminente Oferta Pública Inicial (OPI), valorada en casi 1 billón de dólares.

El impacto de la tragedia de Tumbler Ridge

El ataque del pasado 10 de febrero es recordado como uno de los episodios más oscuros en la historia reciente de Canadá. El saldo fue devastador:

  • Víctimas: 9 personas perdieron la vida, incluyendo a la madre y el hermanastro del atacante, una asistente educativa y cinco estudiantes de entre 12 y 13 años.

  • El perfil del agresor: Van Rootselaar tenía un historial documentado de problemas de salud mental y, tras el ataque en su antigua escuela, se suicidó.

Esta demanda se suma a una creciente ola de litigios que exigen mayor responsabilidad a las empresas de Inteligencia Artificial por no prevenir interacciones que deriven en autolesiones, enfermedades mentales o actos criminales.

Profundiza este contenido con: Nueva York demanda a Gemini y Coinbase: Acusaciones por apuestas ilegales

La postura oficial de OpenAI

Un portavoz de la compañía calificó el evento como una “tragedia” y reafirmó su política de tolerancia cero ante el uso de la IA para fines violentos. Ante la presión legal y social, OpenAI aseguró haber implementado nuevas capas de seguridad:

  • Detección de amenazas: Mejora en la evaluación de señales de angustia y perfiles de reincidentes.

  • Apoyo a la salud mental: Conexiones directas con servicios de emergencia y salud desde la interfaz del chatbot.

  • Disculpa pública: Recientemente, la empresa emitió una disculpa formal al pueblo canadiense por las fallas en el reporte del caso.

¿Qué sigue en el proceso legal?

La Fiscalía de Florida ya ha abierto una investigación paralela sobre el papel de ChatGPT en este crimen cometido en 2025. Mientras tanto, se espera que en las próximas semanas se presenten dos docenas más de demandas en nombre de otros afectados, lo que podría convertir este caso en el precedente legal más importante sobre la responsabilidad civil de los desarrolladores de IA en el mundo real.

Finalmente, este conflicto pone a prueba el delicado equilibrio entre la privacidad del usuario, la libertad de desarrollo tecnológico y la seguridad pública en un 2026 donde la IA está integrada en casi cada aspecto de la vida cotidiana.


🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐

¡Este canal es para ti!