Un consejo de ChatGPT casi le cuesta la vida a un señor de 60 años

Un hombre de 60 años de edad en Estados Unidos fue hospitalizado durante tres semanas y sufrió alucinaciones después de intoxicarse al sustituir la sal común por bromuro de sodio, siguiendo una recomendación de ChatGPT.

El caso fue registrado por la revista médica Annals of Internal Medicine: Clinical Cases. Según el informe, el paciente buscaba eliminar la sal de su dieta y recurrió a ChatGPT para encontrar un reemplazo. La herramienta le sugirió usar bromuro de sodio, una sustancia utilizada históricamente en la industria farmacéutica y de manufactura, pero no apta para el consumo humano.

El hombre usó este compuesto en lugar de la sal de mesa durante tres meses, lo que le provocó un cuadro grave de toxicidad conocido como “bromismo”. Entre los síntomas desarrollados presentó paranoia, delirios, alucinaciones visuales y auditivas, sed extrema, así como alteraciones neurológicas y dermatológicas. A pesar de no tener antecedentes psiquiátricos, terminó bajo observación involuntaria en un hospital tras intentar escapar durante su tratamiento.

Lee también: ChatGPT evoluciona: OpenAI prioriza el bienestar del usuario sobre el tiempo de uso

La intoxicación por bromuro de sodio puede causar fatiga, insomnio, temblores, vómito, pérdida de peso, daño renal e incluso insuficiencia respiratoria. Si bien en el pasado este tipo de envenenamiento era común debido al uso de bromuros en medicamentos de venta libre, los casos disminuyeron drásticamente después de que la Administración de Alimentos y Medicamentos (FDA, por sus siglas en inglés) prohibiera su uso en las décadas de 1970 y 1980.

El paciente permaneció internado tres semanas y logró recuperarse progresivamente.

Tras el caso, varios medios estadounidenses consultaron a OpenAI: “nuestros términos establecen que ChatGPT no está destinado al tratamiento de ninguna condición de salud y no sustituye el consejo profesional. Contamos con equipos de seguridad que trabajan para reducir riesgos y entrenamos a nuestros sistemas de IA para animar a las personas a buscar orientación médica profesional”, detalló la compañía.

La situación pone sobre la mesa dos situaciones que siguen siendo urgentes con el uso cotidiano de la Inteligencia Artificial: por un lado, la mayoría de usuarios no leen los términos y condiciones de uso de la app, y por otro, ChatGPT no ofreció ninguna advertencia clara sobre la peligrosidad del bromuro de sodio para el consumo humano, lo que evidencia una falla crítica en los mecanismos de seguridad de la herramienta, pues este tipo de omisiones ponen en peligro la vida de las personas.