5 claves de Salesforce para el uso ético de la IA en América Latina

Alejandro Anderlic, director de Asuntos Gubernamentales y Políticas Públicas de Salesforce para América Latina, advierte que el uso de la IA demanda crear carriles éticos para garantizar que esta tecnología sea una herramienta a favor de la sociedad y no un arma.

A medida que la Inteligencia Artificial (IA) se desarrolla a un paso vertiginoso y todavía inesperado, se acrecientan las preocupaciones por la falta de carriles éticos que guíen su implementación en América Latina.

Sólo tres de cada 10 empresas en la región cuentan con equipos encargados de velar por el uso ético de la IA, de acuerdo con un análisis de la consultora SmC+ y Salesforce. Y los principios que siguen no son del todo transparentes. 

Alejandro Anderlic, director de Asuntos Gubernamentales y Políticas Públicas de Salesforce para América Latina, afirma que la Inteligencia Artificial puede tener un impacto muy positivo en las economías de la región, pero todo dependerá de que se construyan bases sólidas para su uso en estricto apego a los derechos humanos.

Por eso, el ejecutivo de Salesforce propone cinco claves para avanzar hacia una adopción más ética y responsable: corresponsabilidad, transparencia, calidad de los datos, privacidad e inclusión.

En entrevista con DPL News, el especialista explica que la IA requiere trasladar los principios universales de protección de los derechos humanos al ámbito tecnológico, sin que esto signifique establecer marcos regulatorios apresurados que pongan una camisa de fuerza a la innovación.

“Si llevamos a la tecnología por el carril adecuado, cualquier desarrollo tecnológico que venga hacia adelante, cuando lo miremos hacia atrás, nos habrá hecho más humanos”.

“Es buscar la manera justamente de asegurarnos que vamos por el carril adecuado para que la tecnología sea una herramienta y no un arma, y que efectivamente tienda al progreso de la humanidad”, puntualiza el ejecutivo.

Destacado: Un año después de ChatGPT llega la ‘regulación’ de la Inteligencia Artificial

Lo más importante, destaca Anderlic, es poner al ser humano al centro del desarrollo tecnológico: como principal beneficiario de las nuevas herramientas y soluciones creadas a partir de la IA y también como quien tome la última decisión en temas sensibles.

1. Corresponsabilidad

Uno de los principios rectores que debería tener la adopción de sistemas de IA en la región, según Salesforce, es la corresponsabilidad. Esto quiere decir que el sector público, privado, organizaciones multilaterales e internacionales e instituciones científico-académicas necesitan involucrarse en el uso responsable y ético de esta tecnología.

“De alguna manera todos somos responsables, no solamente las industrias de tecnología que las creamos (las aplicaciones de IA); todas las organizaciones son responsables por el uso que se hace de la tecnología”.

“Podemos unirnos y adoptar principios y postulados generales, como por ejemplo podrían ser los que prevé Unesco, y buscar maneras de, no digo armar una biblia de principios de lo que hay que hacer, sino un decálogo, una declaración de principios diciendo ‘estos son los umbrales más allá de los cuales no vamos a ir’”.

“Creo que empezar por ponernos de acuerdo desde el sector privado con algo así sería súper importante. Y del lado de los gobiernos, hay una disparidad en cómo se está abordando el tema”

“Se podría intercambiar mejores prácticas entre gobiernos, ver qué se está haciendo en otras regiones, que de repente están un poco más avanzadas que nosotros en el desarrollo de políticas o de guías de uso. Y no apresurarse en sacar una regulación que después sea un corset a la innovación y que termine matando el desarrollo de tecnología”, señala Alejandro Anderlic.

2. Transparencia

La transparencia también debe ser un eje transversal en el uso de la Inteligencia Artificial. Dar acceso a la información acerca de cómo se diseñan, emplean y funcionan las soluciones de IA es fundamental para garantizar que se dé un uso ético.

“La transparencia es clave. Primero explicándole al usuario cómo es que termina recibiendo una información; o sea, explicándole cómo es el proceso, cómo se usan sus datos, cómo se garantiza la privacidad de sus datos, cómo se garantiza que los datos sean desagregados para que en ningún momento se vulneren derechos de las personas”.

“Que no se le mienta a la gente respecto del procedimiento que se está usando para darse los datos, que sean muy claros los términos de uso, creo que eso también hace a la transparencia”.

Alejandro Ardelic considera que “la transparencia también pasa muchísimo por ese lado, con que el usuario sea bien informado de qué implica estar usando una tecnología, que se le cuente todo”.

En buena medida, de la transparencia depende también la generación de confianza. Dicha confianza existirá “si la compañía está creando productos que efectivamente cumplen con estándares éticos y de responsabilidad”.

3. Calidad de los datos

Otro de los elementos importantes que están en el centro del desarrollo de la IA es la calidad de los datos, pues son los que alimentan los algoritmos y los sistemas de Inteligencia Artificial.

“El gran problema que tienen algunas herramientas de Inteligencia Artificial Generativa es que sacan conclusiones a partir de datos que pueden no ser correctos”, advierte Anderlic.

Cuando la calidad de los datos no es adecuada, la tecnología creada a partir de ellos puede reproducir sesgos y generar riesgos que afectan los derechos humanos.

Por eso, en su Recomendación sobre ética de la Inteligencia Artificial, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) destaca la necesidad de que los procesos de selección y recolección de los datos estén bien cuidados, documentados, definidos, sean transparentes y representativos de las comunidades o grupos a los que afectan.

4. Seguridad

Alejandro Anderlic señala que el uso ética de la IA exige proteger también la privacidad y seguridad de los datos y garantizar que las personas siempre tengan la certeza de que siguen siendo dueños de su propia información.

La confianza en torno a cómo se utilizan los datos también marcará si una solución de Inteligencia Artificial es exitosa o no.

Para ello, se necesitan políticas y procedimientos que guíen el tratamiento adecuado de los datos.

Sin embargo, Salesforce y SMC+ muestran en un reciente estudio que en América Latina existe una limitada cultura de datos y poca transparencia respecto a su aprovechamiento.

Es decir, aunque se generan grandes volúmenes de datos, en realidad se utilizan muy pocos para la toma de decisiones, realizar modelos predictivos o desarrollar nuevos productos y servicios.

Precisamente, un obstáculo para promover un mayor aprovechamiento y creación de valor a partir de los datos es la falta de seguridad y confianza respecto a las tecnologías como la Inteligencia Artificial.

Te recomendamos: América Latina debe tener voz propia en la regulación de Inteligencia Artificial: Ángel Melguizo

5. Diversidad y representatividad

La representatividad en el desarrollo de la Inteligencia Artificial supone tomar en cuenta las características y necesidades de los diversos grupos que componen la sociedad, de manera que la tecnología sea inclusiva y efectiva.

“Tratamos que absolutamente todos los grupos que conforman la sociedad estén representados y que ninguno se vea dejado de lado o menoscabado por un sesgo en el momento que usamos la tecnología”, puntualiza Anderlic.

Para tener una visión amplia y diversa, también se requiere que los equipos encargados del diseño de los sistemas de IA sean diversos. Sin embargo, existen brechas importantes en los equipos de investigación y desarrollo alrededor de esta tecnología.

Sólo 11 por ciento de las investigaciones acerca de la IA son publicadas exclusivamente por mujeres, mientras que los hombres son autores exclusivos en un 55 por ciento de los papers.

Además, los hombres intervienen en 90 por ciento de las investigaciones sobre este tema; en contraste, las mujeres participan en 45 por ciento, de acuerdo con datos de la firma de análisis Elsevier.

El componente de género es una de las dimensiones que se deben abordar para garantizar la representatividad en la IA y mitigar los sesgos, pero existen varios más: la etnia, raza, clase social, edad y muchas más.

***

Alejandro Anderlic puntualiza que las empresas y todos quienes implementan la Inteligencia Artificial no tienen que partir de cero, pues los marcos ya existentes de derechos humanos deben tomarse como base para el uso ético de esta tecnología.

También ya existen esfuerzos a nivel internacional y regional en América Latina que buscan trazar los lineamientos bajo los cuales debe funcionar la IA.

La discusión sobre cómo crear una regulación de Inteligencia Artificial y con qué parámetros apenas está surgiendo en la región latinoamericana, y probablemente tomará más tiempo en madurar.

Mientras tanto, el ejecutivo de Salesforce considera que las empresas de tecnología deben asumir un rol de liderazgo para impulsar el uso ético y responsable de la IA.

“Las compañías de tecnología tenemos una misión especial y deberíamos tener un compromiso especial ―reflexiona―, para asegurarnos que la tecnología sea una herramienta que mejore nuestras vidas, que nos haga la vida más fácil, que nos ayude a trabajar mejor, que nos ayude a desenvolvernos mejor”.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies