La recomendación de la OMS sobre el uso de IA como ChatGPT y Bard en la salud

La Organización Mundial de la Salud (OMS) ha pedido a la ciudadanía tener precaución con el uso de herramientas de Inteligencia Artificial (IA) y garantizar que se utilicen para proteger y promover el bienestar, la seguridad y la autonomía humana y preservar la salud pública.

Para la OMS es necesario examinar con cuidado los riesgos cuando se utilizan herramientas de modelo de lenguaje grande (LLM, por sus siglas en inglés) para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad.

Por esta razón, pide que se incorporen valores como la transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa en el desarrollo de estas herramientas.

Además hace un llamado a aplicar principios éticos y una gobernanza adecuada al diseñar, desarrollar y desplegar la IA para la salud: proteger la autonomía, promover el bienestar humano, la seguridad humana y el interés público; garantizar la transparencia, la explicabilidad y la inteligibilidad; fomentar la responsabilidad y la rendición de cuentas; garantizar la inclusión y la equidad; y promover una IA que responda y sea sostenible.

Esto se debe a que las LLM imitan la comprensión, el procesamiento y la producción de la comunicación humana y ya son parte de las plataformas de más rápida expansión, como ChatGPT, Bard y Bert, entre otras, lo que podría generar respuestas aparentemente verídicas.

Sin embargo, estas respuestas pueden ser completamente incorrectas o contener errores graves, especialmente si están relacionadas con la salud de las personas.

Lee también: Inteligencia Artificial, protagonista en el Google I/O 2023

El dolo por los datos

La OMS advierte que el desarrollo de la IA debe tener especial cuidado con el uso de los datos utilizados para entrenar estos sistemas, pues podrían estar sesgados o desactualizados y generar información engañosa o inexacta que podría plantear riesgos para la salud, la equidad y la inclusión.

Por su parte, los LLM pueden recibir capacitación sobre datos que no han sido probados ni aprobados por expertos y los pueden divulgar en sus sistemas. Y no son capaces de proteger los datos confidenciales (incluidos los datos de salud) que un usuario proporciona a una aplicación para generar una respuesta.

Recomendamos: ChatGPT entra en el radar de autoridades de protección de datos de Iberoamérica

La Organización aclara que están “entusiasmados con el uso apropiado de las tecnologías, incluidas la IA y LLM, para apoyar a los profesionales de la salud, los pacientes, los investigadores y los científicos”. No obstante, advierte que se debe actuar con cautela con estas nuevas herramientas.

Además, explica que está comprometida con el aprovechamiento de las nuevas tecnologías, incluida la IA y la salud digital para mejorar la salud humana, por lo que sugiere que los formuladores de políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los LLM.

Para ello, la OMS propone que se aborden estas preocupaciones y se mida la evidencia clara del beneficio antes de su uso generalizado en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y gobiernos.