Florida investiga a OpenAI por posibles riesgos de seguridad y uso indebido de la Inteligencia Artificial
El fiscal general de Florida, Estados Unidos, James Uthmeier, informó el inicio de una investigación formal contra OpenAI, la cual busca determinar si las herramientas de la compañía, como ChatGPT, han habilitado posibles riesgos de seguridad y uso indebido de la Inteligencia Artificial (IA), especialmente en relación con menores de edad y posibles actividades delictivas.
Uthmeier hizo el anuncio a través de su cuenta de X, donde indicó que su oficina evalúa el uso de la tecnología de OpenAI y no descarta la emisión de citaciones judiciales en el corto plazo como parte del proceso.
De acuerdo con la prensa local, uno de los factores que motivó la investigación es un caso vinculado al tiroteo ocurrido en 2025 en la Universidad Estatal de Florida que dejó a dos personas muertas.
Los familiares de una de las víctimas alegan que el atacante habría utilizado herramientas de IA, como ChatGPT, para ayudar en la planificación del hecho, por lo que preparan una demanda que permita esclarecer si hubo algún tipo de responsabilidad o falla en los controles de la tecnología.
Te puede interesar: Gobernador de Florida impulsa nueva ley para proteger a ciudadanos de abusos y riesgos de la IA
“A medida que las grandes tecnológicas implementan estas tecnologías, no deberían —ni pueden— poner en riesgo nuestra seguridad. Apoyamos la innovación, pero eso no le da a ninguna empresa el derecho de poner en peligro a nuestros hijos, facilitar actividades delictivas, empoderar a los enemigos de Estados Unidos ni amenazar nuestra seguridad nacional”, aseguró Uthmeier.
La investigación en Florida contra OpenAI se sumaría a la demanda que enfrenta la compañía por la supuesta participación de ChatGPT en el suicidio de Adam Raine, en Californa.
La preocupación de Florida se suma a la de otros estados del país, como Nueva York, que aprobó la Ley RAISE, la cual exige marcos de IA para los modelos fronterizos y establece un estándar líder a nivel nacional en transparencia y seguridad de la IA; así como California, que promulgó la Ley de Transparencia en la Inteligencia Artificial Fronteriza en octubre del año pasado.