Discuten expertos sobre riesgos de la Inteligencia Artificial

Expertos en Inteligencia Artificial discutieron los riesgos que implica el uso de esta tecnología, la cual coincidieron, está en su etapa inicial.

La Inteligencia Artificial (IA) se encuentra en una etapa muy temprana, y aunque es así, ya representa algunos riesgos para los seres humanos, sobre todo hablando de temas éticos.

Expertos en IA en México se reunieron durante el “Conversatorio entre el Sector Comunicaciones, Academia y Startups, en Materia de Inteligencia Artificial”, para discutir sobre los riesgos de esta nueva tecnología.

Catalina Ovando, directora general de Política de Telecomunicaciones y Radiodifusión de la Secretaría de Infraestructura, Comunicaciones y Transportes (SICT), mencionó que uno de los principales riesgos de la IA es la parte del ego que a veces tiene el ser humano al no aceptar que no lo sabemos todo y que es necesario tener conciencia de nuestros sesgos cognitivos.

Relacionado: Así se deberán tratar los datos personales en sistemas de Inteligencia Artificial en Colombia

“Para mí antes del tema de Inteligencia Artificial, tiene que ver más el riesgo de qué tan conscientes somos de los fallos en el razonamiento que tenemos, las falacias argumentativas, porque de ahí parte justamente a veces nuestro uso de las plataformas de IA.

“Si nos centramos en el pensamiento crítico, en falacias argumentativas, en sesgos cognitivos, y tratáramos de ser conscientes y sobre todo un poco más humildes en el sentido de que nos falta mucho por aprender, y si nos centramos en el entender de nosotros mismos, las plataformas y el uso serían menos sesgados”, comentó la especialista.

Aida Huerta, secretaria de Posgrado e Investigación de la Facultad de Ingeniería de la UNAM, coincidió en que los sesgos del ser humano pueden ser parte del peligro a la hora de aplicar la IA en procesos.

Mencionó que existe una responsabilidad de no dejar a nadie atrás ni dejar a nadie fuera, a consecuencia de los sesgos.

“Sobre todo la protección de datos de los usuarios, eso es una parte clave. Y ahí sí animaría sobre todo a los desarrolladores. Primero, a no pedir datos de más y hacer muy consciente el ciclo de vida del dato, no es para siempre. O sea, primero, no pidas permisos más de los que necesites.

“Luego, el tema de derechos humanos, todo lo que tenga que ver con la libertad de la persona va muy de la mano del tema de datos, es clave. También la defensa de los activos críticos, infraestructuras críticas, a los datos de los usuarios. Desde esto, y antes, está muy ligado a lo que sería la ciberseguridad”, explicó la académica de la UNAM.

Jair Ramírez, vicepresidente de IA de la Unión Industrial del Estado de México (Unidem), explicó que uno de los riesgos de la Inteligencia Artificial puede estar relacionado con la interpretación de los datos que, desde su desarrollo, le coloque el propio ser humano.

“Los algoritmos tienen que ser muy sofisticados, porque se puede hacer un mal diagnóstico. Ese es un riesgo. Entonces, esa es la interpretación de lo que me está arrojando un algoritmo de IA, que en lugar de determinar o de detectar que es una enfermedad o una célula enferma, pues es una célula sana. Sólo que por el error que contiene el algoritmo, me estoy equivocando en un diagnóstico. Ese es un alto riesgo”, ejemplificó Ramírez.

Ernesto Priani, doctor en Filosofía por la UNAM y presidente de la Red de Humanistas Digitales, cuestionó que el ser humano sepa lo que significa la IA, y al no saber, existe un riesgo.

Agregó que la IA aplicada en diferentes usos hace más compleja su definición, y aumenta los riesgos.

“Si se dan cuenta, es como un paraguas, que incluye metodologías que se aplican de maneras muy diversas y que resultan en problemas muy diversos. Es decir, los problemas de riesgo y los problemas éticos que involucra un automóvil autónomo es muy distinto a los problemas involucrados en la vigilancia”, expresó Ernesto Priani.

Miguel Baez, subdirector de Investigación Cibernética de la Secretaría de Seguridad Ciudadana, aseguró que el reto es buscar el beneficio de la IA para toda la sociedad y en los diversos ámbitos de la vida de las personas.

“Instituciones privadas, academia y sector público tenemos que ponernos de acuerdo en cada uno de los sectores. Cómo queremos beneficiar a la población. Obviamente darle el acceso a todos. Que todos tengamos el acceso a las tecnologías; ahora a la Inteligencia Artificial, pero sobre todo, en mi caso, la seguridad.

“Que toda la IA que vamos a desarrollar aporte seguridad a la población. En nuestro caso, el uso de Inteligencia Artificial dentro de la policía, tenemos que enfocarnos mucho en respetar los derechos humanos y  sobre todo la privacidad de nuestros ciudadanos”, aseveró.