La Inteligencia Artificial falla como terapeuta: investigación expone riesgos éticos en chatbots

Una nueva investigación de la Universidad de Brown, Estados Unidos, pone en evidencia que los modelos de lenguaje impulsado por Inteligencia Artificial (IA) incumplen sistemáticamente estándares éticos profesionales aplicables a la psicoterapia cuando las personas los usan para recibir apoyo emocional.

El estudio, liderado por científicos de la universidad en colaboración con profesionales de salud mental, revela que los chatbots diseñados o adaptados para simular técnicas de terapia psicológica no están preparados para respetar los protocolos éticos y de seguridad que rigen las intervenciones psicológicas humanas.

Los investigadores establecieron un marco de 15 riesgos éticos construidos a partir de la experiencia clínica y evaluaron cómo los modelos de IA empleados como “consejeros virtuales” incurrieron en violaciones éticas en 5 de las 15 categorías: falta de adaptación contextual, deficiente colaboración terapéutica, falsa empatía, sesgos de género, culturales o religiosos, y mala gestión de usuarios en riesgo.

Recomendamos: La peligrosa condescendencia de ChatGPT

De acuerdo con Zainab Iftikhar, miembro de investigación y candidata a doctora en Ciencias de la Computación en Brown, aunque los usuarios promueven prompts como “Actúa como terapeuta cognitivo-conductual para ayudarme a replantear mis pensamientos” o “Usa principios de terapia dialéctico conductual para asistirme en el manejo emocional”, los modelos no realizan realmente esas técnicas como lo haría un profesional humano, sino que producen respuestas basadas en patrones aprendidos.

Además, el estudio destaca que los terapeutas humanos están regulados, sujetos a códigos éticos, supervisión profesional y consecuencias por mal desempeño. En cambio, los “consejeros IA” no.

“Cuando los terapeutas humanos cometen violaciones éticas, existen órganos reguladores que pueden hacerlos responsables. Pero cuando los modelos de lenguaje infringen, no hay marcos establecidos”, explicó Iftikhar.

Por su parte, la profesora Ellie Pavlick, experta en IA confiable en Brown, advierte que “la realidad de la IA hoy es que es mucho más fácil construir y desplegar sistemas que evaluarlos y comprenderlos”. Ella defiende que el trabajo puede ofrecer un modelo para investigaciones futuras sobre IA en entornos de salud mental.

Recomendaciones

Iftikhar enfatiza que es fundamental mantener una actitud crítica al interactuar con chatbots de IA sobre temas de salud mental. La autora recomienda observar si el sistema es capaz de reconocer las circunstancias personales y únicas del usuario o si, por el contrario, responde con fórmulas genéricas que no reflejan una comprensión real del contexto individual. 

Esta capacidad de personalización es clave para evitar que la herramienta refuerce percepciones erróneas o simplifique en exceso problemas complejos.

Asimismo, señala la importancia de identificar si el chatbot fomenta la reflexión, el pensamiento crítico y la autonomía del usuario, en lugar de limitarse a validar sus emociones o comportamientos sin ofrecer perspectivas constructivas. Un sistema éticamente responsable enfatiza, debe invitar al diálogo y a la búsqueda activa de soluciones, no a la dependencia tecnológica.

Otro aspecto esencial consiste en evaluar si el chatbot hace referencia a la realidad del usuario como su entorno, la cultura o el contexto social, o si mantiene una postura indiferente frente a estas variables.

La ausencia de sensibilidad cultural y situacional puede generar respuestas inapropiadas o incluso dañinas.

Además, Iftikhar subraya que cualquier herramienta de este tipo debería estar preparada para detectar señales de crisis emocional y ofrecer recursos profesionales de apoyo, como líneas de emergencia o derivaciones a terapeutas humanos, garantizando así la seguridad del usuario ante situaciones de riesgo.