Chatbots podrían ser una herramienta útil contra el acoso laboral

Empresas en el Reino Unido están adoptando programas con IA para monitorear las comunicaciones internas y detectar casos potenciales de acoso.

Los chatbots son programas que incorporan sistemas de Inteligencia Artificial (IA), con los cuales es posible mantener una conversación, además de que pueden aprender constantemente con el tiempo sobre gustos o preferencias del usuario.

En el Reino Unido, los programadores de IA están desarrollando bots que pueden detectar y monitorear el acoso digital en herramientas de comunicación empresariales.

El acoso laboral es un problema que afecta a las empleadas de muchas industrias. Las firmas de abogados es un terreno con alto índice de acoso: al menos un tercio de las abogadas en el Reino Unido han denunciado haber sufrido acoso sexual en el trabajo.

Ante esta situación, la firma de Inteligencia Artificial NexLP desarrolló los #MeTooBots, un nombre que hace referencia al movimiento viral que surgió en 2017 para denunciar la agresión y acoso sexual a raíz de las acusaciones contra el productor de Hollywood, Harvey Weinstein.

Los #MeTooBots son parte de la plataforma de IA de Nex, que ya es utilizada por más de 50 empresas en el Reino Unido. Estos bots son entrenados con documentos de la empresa, correos electrónicos y chats. Los datos son analizados de acuerdo con varios indicadores que determinan la probabilidad de que sea un problema.

De acuerdo con Nex, sus bots buscan anomalías en el lenguaje, la frecuencia o el ritmo de la conversación, mientras aprende constantemente cómo detectar una situación de acoso. La idea es que una vez que la IA detecta un problema, notifica al departamento de Recursos Humanos para investigar a fondo.

Sin embargo, algunos expertos sobre Inteligencia Artificial piensan que los bots pueden llegar a tener capacidades limitadas para erradicar el acoso laboral.

De acuerdo con Brian Subirana, profesor de Inteligencia Artificial en Harvard y el MIT, hay un tipo de acoso que es muy sutil y, por lo tanto, difícil de detectar para una IA.

El problema es que una IA no puede captar dinámicas interpersonales y culturales únicas de los seres humanos, lo que significa que existe el riesgo de dejar un hueco para casos que podrían ser más sensibles.

Otra de las preocupaciones es proteger los datos que recopilan los bots. El profesor Subirana advierte que si son filtrados los datos, las compañías rivales podrían espiar las comunicaciones internas entre los empleados.

A pesar de las dudas, Subirana cree que los #MeTooBots pueden ofrecer beneficios indirectos, como una base de datos con mensajes de acoso para capacitar a los empleados.

Además, ya que las comunicaciones internas son monitoreadas, podría generar que las personas sean menos propensas a hostigar a sus colegas.