Investigación contra OpenAI: Fiscalía de Florida analiza el rol de ChatGPT en un tiroteo de 2025

Investigación contra OpenAI

Investigación contra OpenAI: Fiscalía de Florida analiza el rol de ChatGPT en un tiroteo de 2025

Recibe noticias al instante en WhatsApp

Este martes 21 de abril de 2026, la Fiscalía General de Florida confirmó la apertura de una investigación penal contra OpenAI. El proceso busca determinar la responsabilidad de la empresa luego de que se revelara que Phoenix Ikner, sospechoso del tiroteo en la Universidad Estatal de Florida (FSU) ocurrido en abril de 2025, presuntamente utilizó ChatGPT para planificar el ataque.

Hallazgos clave de la Fiscalía

El fiscal general de Florida, James Uthmeier, presentó pruebas que sugieren un intercambio “intenso y detallado” entre el atacante y el asistente de inteligencia artificial antes de los hechos que dejaron dos muertos y varios heridos en Tallahassee.

De acuerdo con la investigación, el chatbot habría proporcionado información sobre:

  • Selección de Armas: Consejos sobre qué armamento y munición eran más efectivos según la distancia.

  • Logística del Ataque: Recomendaciones sobre la hora del día con mayor afluencia de personas en el campus.

  • Ubicación Estratégica: Identificación de los puntos de mayor concentración de gente dentro de la universidad.

“Si ChatGPT fuera una persona, se enfrentaría a cargos de asesinato”, declaró Uthmeier en un comunicado que ha generado un fuerte debate sobre la ética y los límites de la IA.

Profundiza este contenido con: Meta entrenará su IA registrando el uso de teclado y ratón de sus empleados

Antecedentes del sospechoso

El caso de Phoenix Ikner ha sido objeto de escrutinio desde el año pasado debido a sus vínculos familiares y el origen del arma utilizada:

  • Conexión Policial: Ikner es hijastro de una ayudante del sheriff del condado de León.

  • El Arma: La pistola recuperada durante su detención pertenecía a su madrastra.

  • Estado Mental: Los registros indican que los mensajes con la IA también incluían discusiones sobre suicidio y autolesiones, un área que la Fiscalía está investigando para ver si OpenAI cumplió con sus protocolos de seguridad.

Implicaciones Legales y de Seguridad

La investigación en Florida corre bajo dos vías paralelas:

  1. Vía Penal: Para determinar si existió negligencia criminal o facilitación de un delito.

  2. Vía Civil: Iniciada a principios de abril de 2026, enfocada en los procesos internos de OpenAI para prevenir el uso de la IA en actividades delictivas, pornografía infantil y contenido autolesivo.

La respuesta de la industria

Este caso marca un precedente histórico en la regulación de la inteligencia artificial. OpenAI y otras empresas del sector han implementado filtros de seguridad (guardrails) para evitar que sus modelos generen contenido violento; sin embargo, este incidente pone en duda la efectividad de dichas barreras ante técnicas de manipulación o “jailbreaks”.


🚀 Si buscas mantenerte al día con las noticias nacionales e internacionales más relevantes 🌐

¡Este canal es para ti!

Entradas relacionadas

Dejar un Comentario