El fiscal general de Florida, Estados Unidos, James Uthmeier, informó que la investigación iniciada este mes contra ChatGPT, y su empresa matriz OpenAI se ha convertido en una investigación penal, tras el análisis de los mensajes entre el chatbot y el hombre acusado de matar a dos personas durante un tiroteo en la Universidad Estatal de Florida en 2025.
En conferencia de prensa, el republicano indicó que los mensajes sugerían que ChatGPT “ofreció asesoría significativa al tirador antes de que cometiera crímenes tan atroces”. Además, destacan consultas sobre la potencia de un arma a corta distancia y el tipo de munición necesaria.
“Florida está liderando el camino en tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal, y si ChatGPT fuese una persona, estaría enfrentando cargos por asesinato. Por supuesto, ChatGPT no es una persona, pero eso no exime a nuestra oficina ni a mi equipo de fiscales de la obligación de investigar si existe responsabilidad penal por parte de una corporación”, agregó.
El ataque, registrado en abril del año pasado cerca de la Universidad Estatal de Florida en Tallahassee, dejó un saldo de dos personas muertas y seis heridas, entre ellas al menos un alumno. El atacante Phoenix Ikner, quien tenía 20 años al momento de los hechos y era alumno del centro estudiantil, enfrenta cargos por asesinato y tentativa de asesinato, y permanece detenido en espera de juicio.
De acuerdo con el informe, las autoridades han integrado más de 200 mensajes como evidencia dentro del caso, algunos de los cuales, revelan que, el día del tiroteo, Ikner preguntó al chatbot cómo reaccionaría el país ante un ataque en la universidad y cuál era el momento de mayor afluencia en el centro estudiantil.
Horas antes, cuestionó si Florida tiene una prisión de máxima seguridad y si la mayoría de los tiradores escolares son condenados. Asimismo, ChatGPT le explicó cómo quitar el seguro de su escopeta apenas tres minutos antes de que abriera fuego fuera y dentro del edificio más concurrido de la Universidad.
Ikner disparó su primer tiro a las 11:57 a.m. Tres minutos después, fue abatido a tiros por un agente de seguridad del instituto.
El fiscal reconoció que OpenAI es una empresa, no una persona, y señaló que explorar una posible responsabilidad penal contra la compañía sería un terreno legal novedoso.
Añadió que, como autoridad en Florida, tiene la obligación de determinar si “seres humanos pudieron haber estado involucrados en el diseño, gestión y operación” del chatbot hasta un punto que “justifique responsabilidad penal”.
"La IA debería existir para complementar, apoyar y avanzar a la humanidad, no para llevar a una crisis existencial o a nuestra desaparición definitiva”, afirmó Uthmeier el pasado 9 de abril, cuando anunció la primera investigación contra la plataforma.
La ley estatal establece que cualquier persona que ayude, favorezca o asesore a alguien en la comisión de un delito, y que se cometa o intente un delito, puede ser considerada un principal del delito. El "ayudante y cómplice" es tan responsable del crimen como el autor.
Como parte del proceso, las autoridades emitieron un citatorio para que la empresa entregue políticas internas, materiales de entrenamiento y protocolos sobre riesgos y cooperación con autoridades, además de información sobre su personal directivo.
Un portavoz de OpenAI afirmó que el tiroteo “fue una tragedia", pero aseguró que la plataforma no es responsable de este "terrible crimen”.
“Tras conocer el incidente, identificamos una cuenta de ChatGPT que se cree estaba asociada con el sospechoso y compartimos proactivamente esta información con las autoridades. Seguimos cooperando con ellas. En este caso, ChatGPT proporcionó respuestas factuales a preguntas con información que puede encontrarse ampliamente en fuentes públicas en internet, y no alentó ni promovió ninguna actividad ilegal o dañina. ChatGPT es una herramienta de uso general utilizada por cientos de millones de personas cada día con fines legítimos. Trabajamos continuamente para fortalecer nuestras salvaguardas con el fin de detectar intenciones dañinas, limitar el uso indebido y responder adecuadamente cuando surgen riesgos para la seguridad”, dijo a en entrevista con el diario El País.
Al respecto, el comisionado del Departamento de Aplicación de la Ley de Florida, Mark Glass, advirtió sobre los peligros asociados al uso de estas tecnologías: “Es importante que todos estemos conscientes de los riesgos de esta nueva tecnología, y los daños que puede causar y ya ha causado en nuestras comunidades”.
El caso se inscribe en un contexto de mayor endurecimiento de acciones legales en a nivel mundial en contra de empresas de inteligencia artificial.
Esta no es la primera vez en que chatbots se ven vinculados con casos violentos, en los últimos dos años, familias en Estados Unidos han presentado demandas civiles contra empresas creadoras de inteligencia artificial tras la muerte por suicidio de adolescentes que, de acuerdo con los padres, mantuvieron interacciones prolongadas y dañinas con dichas plataformas.
Además, en marzo pasado, se dio a conocer una demanda contra el chatbot Gemini, al que una familia acusa de haber inducido a un hombre al suicidio, bajo la creencia de que mantenían una relación sentimental.
Las denuncias acusan fallas de diseño, protocolos insuficientes de seguridad y una posible priorización del “engagement” sobre la protección de usuarios vulnerables. Casos como los de Sewell Setzer III, Adam Raine y Juliana Peralta, han impulsado el debate público sobre las limitaciones que debe tener la inteligencia artificial.