Robots que asustan: lo que hay que evitar a la hora de diseñar Inteligencia Artificial

Desde sus inicios, las máquinas han sido creadas con el objetivo de simplificar la vida de los seres humanos encargándose de tareas que consideramos pesadas, peligrosas o tediosas. 

De hecho, el término robot fue acuñado en la obra teatral de ciencia ficción R.U.R., escrita por Karel Čapek en 1920, que describe la creación de “personas artificiales” para ser utilizadas como fuerza de trabajo barata.

Al ser máquinas destinadas a un uso funcional se les puede dotar de cualquier forma que les permita realizar más eficientemente su tarea asignada. La industria de la manufactura está llena de ejemplos de máquinas que pueden realizar actividades con gran precisión y velocidad. Y aunque realizan tareas que de otra forma harían los trabajadores humanos, en términos de diseño no se parecen en nada a ellos.

Con los avances tecnológicos y de Inteligencia Artificial (IA), empezamos a ver más aplicaciones de robots cuyo trabajo implica la interacción con humanos. Desde recepcionistas en hoteles, meseros en restaurantes futuristas o asistentes en hospitales, los robots con forma humanoide están ocupando lugares en los que interactuamos con ellos de una manera más personal.

En esta interacción es donde entra en juego un factor que nada tiene que ver con la función de la máquina: la empatía con los humanos. Ya sea por razones evolutivas o condicionamiento social, las personas sentimos afinidad con lo que se parece a nosotros. Entre más familiar nos parece algo, más cómodos nos sentimos al interactuar con ello. 

Partiendo de esto es que surgieron los primeros robots humanoides, que a pesar de tener pocas funciones automáticas y muchas limitaciones motrices, su similitud con la forma humana lograba despertar empatía en los espectadores.

Pero sucede una reacción interesante con los robots que se parecen tanto a una persona que pueden hacernos dudar que en realidad son una máquina. Cuando la ilusión no es perfecta, los humanos llegamos a sentirnos desconcertados, incómodos y hasta asustados.

En 1970, el robotista Masahiro Mori identificó este fenómeno y lo llamó bukiminotani genshō (el Valle Inquietante).

¿Qué es el fenómeno del Valle Inquietante? 

Esencialmente se describe como la emoción que se genera cuando interactuamos con cualquier tipo de Inteligencia Artificial, que tiene un parecido extremo a una persona real. 

Ese momento de confusión, en donde no sabes si es una máquina o un individuo que actúa extraño, produce repulsión en lugar de empatía, provocando una experiencia insatisfactoria para el usuario que interactúe con esta.

“Se trata de un fenómeno que surgió de la robótica pero que podemos trasladar muy fácilmente a diferentes entornos. Es un factor que debemos de tener en cuenta cuando estamos desarrollando cualquier tipo de producto o servicio”, explicó en entrevista con DPL News, Mauricio García, director de Tecnología en frog, consultora en diseño e innovación estratégica.

“Si empezamos a hacer robots cada vez más y más parecidos a nosotros, llega un momento en que los vemos ya no tanto como una máquina, sino como un ser vivo. Y eso hace que no solamente tengamos una conexión funcional, sino también una emocional.

“Entre más se parecen a nosotros, más empatía nos causa. Es una curva donde empezamos a tener cada vez más y más empatía, hasta que llega un momento en que detectamos que algo no está bien y terminamos decepcionados o nos sentimos engañados.

“Es cuando nos genera más aversión que la buena emoción que nos estaba generando en un principio. Y esto es lo que debemos evitar cuando estamos diseñando un producto. Si tratamos con las personas hay que tener en cuenta qué es lo que van a sentir cuando interactúen con esta máquina”, aseguró García.

Claves de diseño anti Valle Inquietante

Ejemplo de Valle Inquietante. Hiroshi Ishiguro reconocido ingeniero japonés con el androide Geminoid HI-4, un robot idéntico a él. 

El director de Tecnología de frog recomienda que para evitar caer en el error del Valle Inquietante se debe tomar en cuenta la función que va a cumplir el robot e informar al usuario de forma explícita que una máquina es la encargada de atenderlo.

“Como cualquier producto o servicio que estemos diseñando y que va a interactuar con personas, lo primero que debemos de tener muy claro es quién lo va a utilizar. Lo segundo es seleccionar las herramientas de IA que tenemos a la mano y conocer cuáles son sus posibilidades y sus limitaciones.

“Desde el tipo de sentimiento o emociones que queremos despertar en las personas y el tipo de herramientas que queremos usar y por qué, tenemos que tomar la mejor decisión sobre cómo combinarlas. No debemos usar las herramientas simplemente porque podemos, tenemos que pensar cuáles son las tecnologías que sí necesitamos; no es necesario usar todas las que tenemos a nuestro alcance para poder crear el servicio que queremos.

“Finalmente, debemos pensar que es lo que podría salir mal, precisamente pensando en los dilemas éticos que se pueden desencadenar. Hay que cuestionarnos si vamos a afectar de forma negativa la vida de las personas al interactuar con este producto, o cómo estamos segregando a algún grupo de personas por la forma en que lo estamos diseñando.

“Por ejemplo, si estamos desarrollando un robot que va a estar en un hospital, tenemos que pensar qué es lo que esperan las personas que van a interactuar con este robot y cómo ayudarlos, si van a ser los pacientes o los médicos. Si es un paciente, espera cuidado y facilidad de uso; en cambio, un médico tal vez va a necesitar una interfaz que entienda su terminología.

“Definitivamente, el punto de vista ético es algo que siempre debemos de tener en cuenta si vamos a trabajar con personas. Entender a las personas y su comportamiento implica tener esta responsabilidad de que sabemos que vamos a afectar de alguna manera su vida y obviamente lo mejor es que sea para bien.

“En la medida en que podamos hacer un uso adecuado de toda esta tecnología es que podemos tener realmente un impacto positivo”, agregó el directivo.

Robots que evitan este fenómeno

Algunos ejemplos de diseños de robots que toman en cuenta el fenómeno del Valle Inquietante y logran evitarlo son los siguientes:

  • Spot de Boston Dynamics: es un robot cuadrúpedo que nos hace inmediatamente pensar en un perro (punto extra para la empatía). Sus movimientos fluidos le dan cierto aire orgánico y se centra en esta fortaleza para hacerlo familiar. No pretende realmente ser un perro, no tiene pelo, ni siquiera cabeza, tiene elementos esenciales para despertar las emociones correctas y ya.
  • Sophia de Hanson Robotics: a pesar de sus increíbles simulaciones de expresiones faciales, no intenta pasar por humana (a pesar de que se le ha otorgado la condición de ciudadana en Arabia Saudita). Esto queda claro desde que vemos que la mitad de su cráneo es una membrana invisible que expone los mecanismos que controlan su rostro. Esta exposición explícita de su naturaleza evita que sea evaluada incorrectamente.
  • Pepper de Softbank Robotics: es uno de los robots de asistencia que va al otro extremo emulando una imagen típica de ternura pero claramente artificial. Desde los sensores de percepción y síntesis de voz hasta su pantalla táctil, todas sus características están pensadas para facilitar la interacción con las personas, haciéndolas sentir cómodas.