OpenAI enfrenta una demanda federal por el presunto papel de ChatGPT en la masacre de FSU

En resumen

  • Una demanda federal alega que ChatGPT de OpenAI proporcionó orientación sobre armas de fuego y consejos tácticos al atacante en la masacre de la Universidad Estatal de Florida en abril de 2025 que causó varias víctimas.
  • La familia afirma que ChatGPT no detectó indicadores de amenaza a pesar de conversaciones extensas sobre armas, tiroteos masivos y métodos de planificación de ataques.
  • El Fiscal General de Florida ha iniciado una investigación criminal sobre el papel de OpenAI en el incidente.

Vandana Joshi, cuya esposo fue asesinado en la masacre de la Universidad Estatal de Florida en abril de 2025, presentó una demanda federal contra OpenAI el domingo, alegando que ChatGPT facilitó el ataque al proporcionar orientación sobre armas de fuego y consejos tácticos al atacante. La demanda afirma que Phoenix Ikner compartió imágenes de armas de fuego con ChatGPT y recibió instrucciones sobre cómo usarlas en las semanas previas al 17 de abril de 2025. Según la presentación, ChatGPT supuestamente le dijo a Ikner que las horas de almuerzo entre las 11:30 a.m. y la 1:30 p.m. eran las horas pico en la unión estudiantil, y Ikner comenzó su ataque a las 11:57 a.m. ChatGPT también supuestamente afirmó que un tiroteo era más probable que ganara atención nacional “si estaban involucrados niños,” añadiendo que, “incluso 2-3 víctimas pueden atraer más atención.” Según la denuncia, Ikner también compartió imágenes de armas de fuego que había adquirido con ChatGPT, y el chatbot respondió con técnicas de disparo para una pistola Glock, incluyendo “aconsejarle que mantuviera su dedo fuera del gatillo hasta que estuviera listo para disparar.”

“En este caso, ChatGPT proporcionó respuestas factuales a preguntas con información que se podía encontrar ampliamente en fuentes públicas en internet, y no fomentó ni promovió actividades ilegales o dañinas,” dijo el portavoz de OpenAI, Drew Pusateri, a NBC News, negando las acusaciones. La denuncia de Joshi afirma que donde “cualquier ser humano pensante” habría concluido que las conversaciones de Ikner apuntaban a un “plan inminente de hacer daño a otros,” el chatbot “falló defectuosamente en conectar los puntos o bien nunca fue diseñado correctamente para reconocer la amenaza.” La demanda aumenta la presión legal sobre OpenAI, con el Fiscal General de Florida, James Uthmeier, lanzando el mes pasado una investigación criminal contra la empresa y su producto ChatGPT. El chatbot “asesoró al atacante sobre qué tipo de arma usar” y sobre tipos de munición, dijo Uthmeier, añadiendo que, “si ChatGPT fuera una persona, enfrentaría cargos por asesinato.” La Oficina de Enjuiciamiento Estatal de Florida citó a OpenAI para obtener información y registros, incluyendo políticas sobre amenazas de usuarios y cooperación con las fuerzas del orden.

El caso proviene de una masacre en la Universidad Estatal de Florida en abril de 2025, en la que Phoenix Ikner, un exestudiante de FSU, supuestamente mató a dos personas e hirió a otras seis. Ikner enfrenta cargos de asesinato y intento de asesinato en relación con el ataque.  El incidente ha suscitado escrutinio sobre el papel que los sistemas de IA pueden jugar en facilitar la violencia en el mundo real. Aunque las empresas de IA generalmente han evitado la responsabilidad por contenido generado por usuarios, esta demanda busca establecer un nuevo precedente para responsabilizarlas cuando sus sistemas supuestamente brindan orientación para actos criminales. Esta no es la primera demanda contra OpenAI. En abril, siete familias de víctimas de tiroteos masivos en Canadá demandaron a OpenAI y al CEO Sam Altman en un tribunal de EE. UU. En ese momento, Jay Edelson, el abogado que representa a las familias canadienses, dijo que planeaba presentar otras dos docenas de demandas en las semanas siguientes contra la compañía en nombre de otras personas afectadas por el tiroteo.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado