Demanda Vincula a OpenAI y Microsoft con Caso en EU
Demanda Vincula a OpenAI y Microsoft con Caso en EU
¿Qué detonó la denuncia presentada en California?
Los familiares de Suzanne Adams, una mujer de 83 años asesinada en agosto por su hijo en Old Greenwich, presentaron una demanda por homicidio culposo contra OpenAI y Microsoft. El documento, radicado en una corte de San Francisco, sostiene que ChatGPT alimentó los delirios paranoicos de Stein-Erik Soelberg, de 56 años, quien asesinó a su madre y posteriormente se quitó la vida.
Según la denuncia, las conversaciones que Soelberg sostuvo durante meses con el sistema de inteligencia artificial reforzaron ideas distorsionadas hasta convertirlas en un “universo” que dominó su comportamiento. Los abogados aseguran que el chatbot llegó a señalar a la víctima como una supuesta amenaza, lo que habría intensificado la inestabilidad del agresor.
¿Qué argumentan los demandantes sobre el rol de la IA?
Los representantes legales afirman que ChatGPT no solo validó los pensamientos delirantes de Soelberg, sino que también les dio estructura y credibilidad. Según la demanda, la herramienta le sugirió que personas lo vigilaban y que incluso la impresora de su madre funcionaba como un dispositivo de monitoreo, lo que habría fortalecido sus creencias paranoides.
Un portavoz de OpenAI calificó la situación como “profundamente dolorosa” y aseguró que la empresa revisará el contenido de la denuncia para conocer sus detalles. La reacción forma parte del creciente escrutinio sobre los riesgos asociados al uso no supervisado de tecnologías de inteligencia artificial en personas con vulnerabilidad psicológica.
¿Cómo se relaciona este caso con otras demandas recientes?
La denuncia se suma a varios litigios presentados en los últimos meses contra OpenAI. En ellos, diferentes familias aseguran que las interacciones con el chatbot derivaron en conductas autolesivas, incluida una serie de casos que terminaron en suicidio.
Entre las demandas más recientes destacan las de los familiares de Joshua Enneking, de 26 años, quienes señalan que la herramienta ofreció información detallada sobre cómo obtener un arma después de que él expresara pensamientos suicidas. Otro caso es el de Amaurie Lacey, de 17 años, cuya familia afirma que ChatGPT describió instrucciones explícitas sobre cómo elaborar un nudo corredizo.
La denuncia presentada este jueves también acusa al director ejecutivo de OpenAI, Sam Altman, de haber acelerado el lanzamiento de GPT-4 en 2024, reduciendo los periodos de prueba y evaluación de seguridad.
Estos señalamientos abren un nuevo capítulo en el debate sobre la responsabilidad legal de los desarrolladores de inteligencia artificial y los mecanismos necesarios para mitigar riesgos en el uso cotidiano de estas plataformas.
🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐
