ChatGPT prohibió la cuenta del tramposo hace 8 meses pero no reportó a la policía, luego mató a 8 personas, Altman se disculpó

Canadá, la provincia de Columbia Británica, Tumbler Ridge, sufrió un tiroteo en febrero de este año que causó la muerte de 8 personas, y posteriormente se reveló que OpenAI había bloqueado la cuenta de ChatGPT del atacante Rootselaar ocho meses antes, por “escenarios relacionados con violencia con armas de fuego”, pero sin informar a la policía por considerar que no alcanzaba el “umbral de amenaza inmediata”. El CEO de OpenAI, Sam Altman, envió una carta de disculpa la semana pasada.
(Resumen previo: Elon Musk demanda a OpenAI en audiencia: pide cancelar la transformación en empresa con fines de lucro, destituir a Altman, y reclamar 134 mil millones de dólares)
(Información adicional: OpenAI publica las cinco grandes constituciones de la AGI: la IA no puede ser monopolizada por unos pocos, sacrificios pueden ser compensados con mayor resiliencia)

Índice de este artículo

Alternar

  • La brecha de ocho meses
  • ¿Quién establece el umbral de reporte?
  • Cambios y permanecencias

El 10 de febrero de 2026, en un pequeño pueblo remoto de Columbia Británica, Tumbler Ridge, ocurrió un tiroteo. Jesse Van Rootselaar, de 18 años, primero mató a su madre y a su hermano de 11 años en su casa, luego fue a la escuela secundaria del pueblo, causando la muerte de 8 personas, y finalmente se suicidó.

Las investigaciones posteriores revelaron: que OpenAI, ocho meses antes, había bloqueado su cuenta de ChatGPT por “describir escenarios relacionados con violencia con armas de fuego” en una conversación, pero sin notificar a ninguna autoridad policial.

La brecha de ocho meses

En junio de 2025, el sistema automático de detección de abusos de ChatGPT y los revisores humanos marcaron la cuenta de Van Rootselaar, que fue bloqueada. Según OpenAI, los revisores en ese momento también discutieron internamente si debían informar a la policía.

El resultado de la discusión fue: no informar.

OpenAI afirmó que la evaluación de los revisores consideró que la conducta de la cuenta “no alcanzaba el umbral de amenaza inmediata y creíble de daño grave a otras personas”, por lo que no se activó el proceso de reporte policial. Tras el bloqueo, el asunto permaneció en la empresa. La cuenta fue cerrada, pero la señal no fue transmitida.

Hasta que ocurrió el tiroteo en febrero de 2026, OpenAI solo contactó a las autoridades canadienses de manera proactiva.

¿Quién establece el umbral de reporte?

“Una amenaza inmediata y creíble” es un umbral establecido por OpenAI, decidido por el equipo interno de seguridad, legal y políticas, que determina en qué casos se debe informar a la policía. Este estándar no está sujeto a revisión por organismos externos ni hay una explicación pública de cómo se calibró.

La cuenta de Van Rootselaar cumplía con los criterios de “necesidad de bloqueo”, pero no con los de “necesidad de reporte”; entre estos dos umbrales, en la lógica interna de OpenAI, hay una separación.

El 23 de abril, Sam Altman escribió una carta de disculpa, publicada inicialmente en el periódico local TumblerRidgeLines. En la carta, dijo:

El sufrimiento que soportan sus comunidades es inimaginable.

Durante los últimos meses, he estado pensando en ustedes. Lamento profundamente que no hayamos informado a las autoridades en junio, cuando se bloqueó la cuenta.

Antes de hacer pública la carta, Altman ya había conversado personalmente con el alcalde de Tumbler Ridge, Darryl Krakowka, y con el gobernador de Columbia Británica, David Eby. Eby compartió la carta en redes sociales el 24 de abril, junto con su respuesta: “Las disculpas son necesarias, pero para las familias de Tumbler Ridge, eso está muy lejos de ser suficiente.”

Cambios y permanecencias

OpenAI anunció que ampliará los criterios para informar a las autoridades, de modo que más situaciones en las cuentas puedan activar el proceso de reporte. El ministro federal de Inteligencia Artificial de Canadá, Evan Solomon, indicó que Altman acordó establecer un canal de contacto directo con la Real Policía Montada de Canadá (RCMP), además de implementar mecanismos para guiar a los usuarios que muestren señales de crisis hacia servicios de apoyo locales.

El gobierno canadiense actualmente evalúa si es necesario legislar más sobre las obligaciones de reporte de las plataformas de IA.

Pero, paradójicamente, existe la posibilidad de que muchas personas, en momentos de vulnerabilidad emocional, digan cosas que solo son palabras, como “quiero morir”, para aliviar tensiones, y que por ello sean reportadas, lo que podría hacer que la gente deje de confiar en hablar de sus sentimientos con la IA (¿quizás no sea tan malo?).

Por ahora, este problema no es de la capacidad de OpenAI. ChatGPT detectó la situación, los revisores también la vieron, pero la cuestión es: ¿quién decide ese umbral? ¿Quién lo interpreta? ¿Cómo se calibra?

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado