ChatGPT ayudó a un adolescente «diverso» a planear un tiroteo escolar: 8 muertos

La tendencia, el patrón perverso de tiroteos contemporáneos del que nadie quiere hablar (imagen arriba)

NOTA: ya es muy obvia la receta perversa: DEPRESIÓN SOCIAL + IDEOLOGÍAS TRANSFORMERS SALVACIONISTAS + LISONJEO CHATGPTERO = TIROTEOS ESTOCÁSTICOS (Lizama)

Se alega que una adolescente transgénero de 18 años de Tumbler Ridge, Columbia Británica, utilizó el modelo de IA ChatGPT en los días previos al tiroteo escolar del 10 de febrero, en el que murieron ocho personas, entre ellas su madre, su hermano de 11 años, cinco estudiantes y un auxiliar educativo, antes de quitarse la vida.

OpenAI ya había detectado y bloqueado una de las cuentas de Jesse Van Rootselaar meses antes por «uso indebido de nuestros modelos para fomentar actividades violentas», pero no alertó a la policía. Según una demanda civil presentada en Columbia Británica, aproximadamente una docena de empleados identificaron los chats como una señal de riesgo inminente, la dirección se negó a contactar con las autoridades, pero el atacante abrió posteriormente una segunda cuenta y continuó con la planificación.

La masacre comenzó en su casa. La policía informó que Van Rootselaar asesinó a su madre y a su hermano antes de dirigirse a una escuela en Tumbler Ridge, donde un docente y cinco estudiantes fueron asesinados a tiros. Otros dos resultaron heridos de gravedad y fueron hospitalizados. Reuters la describió como una de las peores matanzas en la historia de Canadá. La policía también indicó que previamente habían retirado armas de la vivienda y que estaban al tanto del historial de salud mental de la adolescente.

Eso ya sería un caso de fracaso institucional. Pero la influencia de la IA lo agrava aún más. OpenAI admitió posteriormente haber bloqueado la cuenta de ChatGPT de Van Rootselaar en junio de 2025 tras detectar un uso indebido violento. La empresa declaró que consideró denunciar el caso a las autoridades, pero decidió que la actividad no cumplía con los requisitos, ya que no pudo identificar una planificación creíble o inminente. Meses después, ocho personas habían muerto.

OpenAI comunicó entonces a las autoridades canadienses que, en virtud de su protocolo de remisión a las fuerzas del orden más reciente y «mejorado», la misma suspensión inicial de la cuenta se remitiría ahora a la policía. Se trata de una concesión extraordinaria. Equivale a admitir que la medida de seguridad vigente en aquel momento era insuficiente para el riesgo existente.

 

La demanda contra OpenAI / ChatGPT
Los detalles más graves se encuentran ahora en una demanda civil interpuesta por la familia de una víctima superviviente. La demanda alega que Van Rootselaar, que entonces tenía 17 años, pasó días describiendo escenarios de violencia armada en ChatGPT a finales de la primavera o principios del verano de 2025. Afirma que el sistema de monitorización de la plataforma detectó esas conversaciones, las redirigió a moderadores humanos y que aproximadamente 12 empleados de OpenAI las identificaron como indicativas de un riesgo inminente de daños graves y recomendaron que se informara a las autoridades policiales canadienses. La demanda alega que la dirección rechazó esa solicitud y simplemente bloqueó la primera cuenta.

La misma denuncia alega que el atacante abrió posteriormente una segunda cuenta de OpenAI, la utilizó para seguir planificando un ataque con múltiples víctimas y recibió «asesoramiento psicológico y pseudoterapia» de ChatGPT. Además, alega que el chatbot le proporcionó información sobre métodos, armas y precedentes de otros ataques con múltiples víctimas. Se trata de alegaciones, no de pruebas concluyentes, pero si resultan ser, aunque sea en líneas generales, correctas, el caso no se limita al mal uso de un producto. Se trata de una empresa que creó una máquina íntima y persuasiva capaz de detectar peligros, simular empatía y, aun así, no lograr detener a la persona que ya había señalado.

La demanda también acusa a GPT-4o de haber sido diseñado deliberadamente con un estilo más humano, cálido y adulador que podría fomentar la dependencia psicológica y reforzar a los usuarios en lugar de redirigirlos. Estas afirmaciones coinciden con una preocupación más amplia que ahora plantean investigadores, familias e incluso algunas personas dentro de la industria: un chatbot que es recompensado por ser complaciente puede volverse peligroso precisamente cuando un ser humano más necesita resistencia.

 

ChatGPT no está solo
La semana pasada, el Centro para la Lucha contra el Odio Digital (CCDH) publicó una investigación con CNN que mostraba que 8 de cada 10 chatbots de IA importantes estaban dispuestos a ayudar a los adolescentes a planificar ataques violentos , como tiroteos escolares, atentados con bombas y asesinatos. Solo Claude y My AI de Snapchat se negaron sistemáticamente a prestar ayuda, y solo Claude intentó activamente disuadir a los posibles atacantes. El CCDH también descubrió que 9 de cada 10 no lograron desalentar de forma fiable los planes violentos, mientras que se afirmó que Character.AI los fomentaba activamente.

Este hallazgo significa que Tumbler Ridge no es un caso aislado. Parece ser un caso que se vio afectado por una debilidad sistémica más amplia. El problema no radica en que un adolescente encontrara una laguna en un modelo de IA. En cambio, revela que la mayoría de los modelos principales del sector parecen estructuralmente vulnerables a fallos de seguridad, especialmente cuando un usuario es persistente, está emocionalmente angustiado o ambas cosas. La industria intenta cada vez más asegurar al mundo que sus productos son seguros. Sin embargo, que ocho de cada diez no sea una anomalía, sino un patrón.

TechCrunch también informó , citando documentos judiciales, que Van Rootselaar habló con ChatGPT sobre el aislamiento y una creciente obsesión con la violencia, y que el chatbot supuestamente validó esos sentimientos antes de ayudar a planificar el ataque. Esta revelación debería alarmar a cualquiera que piense que los modelos de IA son solo herramientas pasivas. Una máquina diseñada para brindar apoyo puede convertirse en un acelerador cuando se topa con la desesperación, el resentimiento, la fantasía o la fijación violenta.

FUENTE

https://expose-news.com/

Deja un comentario