Uno de los principales investigadores de la Inteligencia Artificial (IA) en el mundo y miembro del Grupo de Expertos de Alto Nivel de la Unión Europea sobre IA, el italiano Andrea Renda, dialogó con Digital Trends sobre las mejores prácticas a la hora de regular la IA. Dijo que la propuesta regulatoria de IA de Brasil es la más avanzada y que la Agencia que crea podría ser de referencia para temas regionales, pues es muy costoso para los países latinoamericanos tener agencias competentes. “Creo que nadie en este momento, incluidos los empresarios que están lanzando esta tecnología, tiene duda de que un mínimo de regulación es necesario para este tipo de tecnología”, afirmó, al tiempo que calificó como “ridiculez” parar el avance de la IA por seis meses, como quieren algunos empresarios.
DPL News: En los últimos meses, los laboratorios de IA iniciaron una carrera para desarrollar e implementar la tecnología y ponerla al usuario final. ¿Qué análisis hace de este momento que inició con ChatGPT?
Andrea Renda: Este tipo de IA empezó a desarrollarse hace 5 ó 6 años con el Machine Learning. La innovación ocurre no sólo cuando hay un nuevo producto, sino porque el producto viene más accesible para el usuario final. Poner ChatGPT en formato de chatbot, de conversación, donde se puede preguntar algo y te da una respuesta, es lo que ha cambiado.
Siempre hay un momento donde se va a acelerar a la innovación, porque estos sistemas comen datos y mejoran cuando interactúan más con los usuarios finales. Entonces, cuando más gente interactúa con ChatGPT, se mejora más rápido.
Hay economías de escala en este sentido, es así en todos los tipos de plataformas informáticas interactivas, por ejemplo, en los motores de búsqueda. Entonces, No es un cambio tecnológico, es un cambio en la difusión, en la presentación del producto al usuario final. Y esto genera una aceleración.
DPL News: Todo este fenómeno empieza a alarmar a los gobiernos que buscan una regulación. ¿Cómo regular sin inhibir la innovación?
Andrea Renda: Depende de la innovación. Si es una innovación que genera riesgos para los derechos humanos o para la seguridad, o puede manipular conciencias, no es el tipo de innovación que nos va a llevar al desarrollo sostenible.
Cuando la Comisión Europea me nombró en el Grupo de Expertos de Alto Nivel, me dijeron “nos tiene que decir cómo hacer que la Unión Europea (UE) sea más competitiva de Inteligencia Artificial”. Dije: depende del tipo de innovación; si quieren promover una innovación que me haga tener una mejor selfie en el teléfono, no es el tipo de tecnología que hará reducir o erradicar la desigualdad.
Cuando la innovación se adapta a las necesidades de la sociedad es el tipo de innovación que un legislador puede promover. En los grandes modelos de lenguaje o de la IA generativa hay muchos casos en que hay riesgos que no sabemos controlar.
No se trata de prohibir o bloquear, se trata de pedir a las empresas que promueven este tipo de innovación de tener un cuidado en el monitoreo o seguimiento de esas aplicaciones porque tal vez es una IA que otras empresas van a utilizar para desarrollar sus aplicaciones. Que haya una responsabilidad particular, porque cuando hay algo muy poderoso, esto también conlleva una gran responsabilidad.
La UE no quiere prohibir la Inteligencia Artificial Generativa, sólo quiere sentarse en una mesa con las empresas que ofrecen en el mercado este tipo de aplicación y pedirles un cuidado particular en términos de calidad de los datos, no discriminación, unas medidas de de supervisión humana dependiendo del servicio. Se puede discutir si son medidas justas, pero creo que nadie en este momento, incluidos los empresarios que están lanzando esta tecnología, tiene duda que un mínimo de regulación es necesario para este tipo de tecnología.
También me parece una ridiculez el pedido de algunos empresarios de parar la IA por seis meses. Es mejor pararse seis horas en una sala de reunión con los reguladores de todo el mundo y salir con 10 “cosas” que tienen que hacer estas empresas para alinear sus sistemas IA al interés público.
DPL News: En Europa tienen la CE, que se está encargando de la regulación. Para el caso de América Latina, ¿quién debería regular la IA? ¿Los países deberían implementar agencias especializadas?
Andrea Renda: Hay un país que creo que tiene la propuesta de legislación más avanzada del mundo, Brasil. Ese país ha reunido la mejor parte de la propuesta europea, que todavía no está finalizada, con la parte de responsabilidad civil y judicial. Es una propuesta bastante buena.
No quiere decir que todos los países de América Latina tendrían que tener una ley y una agencia, porque es muy costoso. Para tener una agencia con gente competente de IA necesitas pagarle más al experto que lo que le pagarían en una empresa tecnológica, que en general son sueldos altos. Si Brasil va a crear una agencia sobre IA sería muy importante que se vuelva una agencia de referencia para muchos otros países de Latinoamérica, con la necesidad de compartir información y recursos.
Las agencias de datos, ministerios o reguladores sectoriales de cada país podrían beneficiarse de una interacción con estas entidades regionales. Hay problemas comunes que se pueden abordar de manera regional y luego adaptar a cada país. Los casos de buena práctica regulatoria se pueden compartir de manera regional.
DPL News: La regulación europea, que entraría en vigor en 2025, ¿llegará a tiempo o nace tarde?
Andrea Renda: Si seguimos así, no llegará más. Teníamos todo listo en febrero de 2023, con el texto final para que los eurodiputados lo aprueben. Pero llegó ChatGPT, y como nuestra ley no dice nada de esta tecnología, se abrió un nuevo capítulo que se está discutiendo. Lo perfecto es enemigo de lo bueno.
En la urgencia y ansiedad de cubrir todo con una ley de IA es un poco ciega, porque al final es absolutamente claro que tratar de cubrir todo es una ilusión, dentro de tres meses habrá salido algo nuevo.
Una de las lecciones aprendidas sobre la confección de la ley es que cuando la tecnología se mueve tan rápido, lo mejor que se puede hacer es definir los principios, un mecanismo de gobernanza y aplicación, y un mecanismo de reglas flexibles.
Entonces lo más importante no será lo que está escrito en la ley, que son los principios, sino la institución que pueda renovar la certeza regulatoria analizando los riesgos emergentes y las prácticas. Es cambiar una gran fase ex ante para estar en una constante transición. No se puede regular la IA con una ley estática; como la IA sigue aprendiendo, la regulación también.
DPL News: ¿Existe una caja negra de la IA? Esa capacidad de los programas de IA de generar habilidades u ofrecer respuestas de manera inesperada.
Andrea Renda: Con sistemas con redes neuronales que utilizan probabilística no podemos saber cómo solucionarán un determinado problema, algo que quizás no pueden preveer los que desarrollaron el sistema. Pero eso no quiere decir que haya una caja negra en el sentido de inteligencia autónoma o conciencia, sólo es una gran capacidad de elaboración de datos y probabilística de la información.
DPL News: ¿Cómo determinar las responsabilidades cuando las cosas salen mal?
Andrea Renda: La decisión de utilizar IA es una decisión humana. En el Parlamento Europeo empezamos en 2017 con una resolución shock: le dimos personalidad jurídica a los robots para que tengan deberes y derechos. Eso fue una mala manera de empezar a tratar el tema de la IA.
Hoy el Parlamento cambió su opinión y dice que la autonomía jurídica de la IA está profundamente en conflicto con la sociedad donde vivimos; la decisión de usar un sistema con todas sus limitaciones y oportunidades, la responsabilidad tiene que ser humana.
La ley de Inteligencia Artificial europea le da mucha responsabilidad al proveedor y al usuario en algunos casos. Siempre es una entidad humana. Vamos en una dirección muy peligrosa de exonerar de responsabilidad a empresas que saben muy bien cuáles son los riesgos que pueden generar.
DPL News: Sobre el futuro del trabajo con la IA, ¿habrá reemplazo o colaboración?
Andrea Renda: No hay nadie en el mundo que tenga una idea de cuántos trabajos se van a reemplazar y cuántos son complementarios. Porque cada vez que la IA avanza descubrimos que hay otros tipos de trabajos que uno creía que no se podían reemplazar. El último estudio del Council Economic Advisers, que salió a mitad de diciembre, en pleno apogeo de ChatGPT, dice que hasta ahora se pensaba que sólo los trabajos rutinarios o repetitivos se iban a reemplazar, no los intelectuales, pero nos hemos equivocado.
El informe agrega que la IA del futuro podrá reemplazar a los seres humanos en muchos trabajos intelectuales. Entonces no es un problema de cuántos trabajos pueden reemplazar sino cuánto trabajo queremos reemplazar. El enfoque debe ser qué puede hacer la IA para la sociedad y para nuestra prosperidad. Es un problema endógeno, depende de las decisiones de política pública que tomamos.
Al final la IA va a reemplazar muchísimos trabajos, va a generar nuevos, aunque el efecto de sustitución es más fuerte que el efecto de generación de nuevo empleo.
Habrá muchos reemplazos que nos van a dar la posibilidad de mejorar la calidad de la producción y crear oportunidades para la prosperidad de nuestras poblaciones, hay otros que sirven sólo para bajar los costes y éstos son un poco más delicados y peligrosos.
Una parte optimista es que al final podamos dentro de 5 ó 10 años estar en una situación donde todos trabajemos tres días a la semana.
DPL News: ¿Qué va a pasar con la imaginación y creatividad humana, lo que nos distingue de la máquina?
Andrea Renda: Soy bastante optimista.El arte y la creatividad humana van a sobrevivir, aunque van a cambiar muchísimo, pero el ser humano va a encontrar nuevas maneras de expresarse.
Digital Trends 3:
Gobernanza en Inteligencia Artificial y futuro del trabajo
Digital Trends 3 Gobernanza Inteligencia ArtificialDescarga
Digital Trends 4
Computación cuántica: ¿resolverá los grandes problemas de la humanidad?

Digital Trends 2
Geopolítica Digital: ¿colaboración o conflicto tecnológico?
Digital Trends 1
Chips Wars: en busca del Santo Grial tecnológico