ChatGPT Salud: ¿estás dispuesto a entregar tu historial médico a la IA?

La promesa de la tecnología siempre ha sido la conveniencia. “Conecta todo”, “centraliza tu vida”, “optimiza tu tiempo”.

Bajo esta premisa seductora, OpenAI acaba de anunciar ChatGPT Salud, un servicio diseñado para integrar nuestros datos médicos más íntimos, desde resultados de análisis de sangre hasta registros de aplicaciones como Apple Health, en su omnipresente chatbot.

OpenAI está vendiendo su nuevo servicio de salud con la idea de que es un chat, pero con mayor conocimiento y preparación. Sin embargo, lo que realmente nos está pidiendo es que le entreguemos la llave de nuestra vulnerabilidad más absoluta a una caja negra algorítmica.

A primera vista, la propuesta parece resolver un dolor de cabeza administrativo real: la fragmentación del historial clínico. Pero debemos detenernos a pensar en el precio de esa comodidad.

Entregarle a una Inteligencia Artificial generativa el acceso directo a nuestra biología no es un avance; es una imprudencia de proporciones mayúsculas.

El primer y más evidente peligro es la naturaleza misma de la tecnología. ChatGPT, por más avanzado que sea, es un modelo de lenguaje probabilístico, no una base de conocimiento verificada.

Hay que recordar que la IA generativa también tiene alucinaciones, es decir, inventa datos que los hace pasar como fidedignos.

Cuando le pedimos que resuma un ensayo literario, una alucinación es una anécdota; cuando le pedimos que interprete un resultado de laboratorio oncológico o cardíaco, una alucinación puede derivar en una hipocondría paralizante o, peor aún, en la negligencia de ignorar un síntoma real porque la máquina dijo que “todo parece normal”.

Pero esperen, OpenAI ya se curó en salud, nunca mejor dicho, con el descargo de responsabilidad habitual: “no pretende sustituir la asistencia médica profesional”. Esta es la trampa legal perfecta.

OpenAI sabe que, en la práctica, millones de usuarios desesperados por la falta de acceso a un sistema de salud saturado tratarán al bot como a un doctor, al mercantilizar la interpretación médica sin la responsabilidad ética y legal de un profesional humano.

En segundo lugar, está el tema de la privacidad y la seguridad. La compañía asegura que los datos estarán “cifrados” y “aislados”. Pero en el ecosistema digital actual, la seguridad absoluta es un mito.

Al centralizar datos de MyFitnessPal, historiales clínicos y hábitos de vida en un solo servidor, estamos creando el “honeypot” más atractivo de la historia para los ciberdelincuentes. Una filtración aquí no expone sólo tu tarjeta de crédito (que se puede cancelar), sino tu historial de enfermedades, tus adicciones, tu salud mental y tu genética. Son datos que no se pueden cambiar ni borrar.

Además, hay una pregunta que nadie está respondiendo con suficiente claridad: ¿Qué aprende el modelo de nosotros? Aunque prometan aislamiento, la economía de la IA se basa en el entrenamiento de datos.

¿Estamos cómodos con la idea de que nuestros patrones de salud sirvan para afinar un algoritmo que, el día de mañana, podría ser vendido a aseguradoras para calcular primas de riesgo o denegar coberturas basándose en “hábitos de asistencia médica” que la misma IA analizó?

El hecho de que 230 millones de personas ya consulten a ChatGPT sobre salud no valida el servicio; más bien, evidencia una crisis en la atención primaria global. OpenAI está capitalizando esa crisis.

¿Estás dispuesto a entregar tu historial médico a la IA?

Nos leemos en la próxima #BigTech