Excélsior Paul Lara
¿Puede un algoritmo de IA o una máquina predecir la conducta o el comportamiento humano? A la fecha no, son sólo herramientas que dan una aproximación o que pueden condicionar un comportamiento o una conducta con refuerzos que pueden ser riesgosos si son mal utilizados. Ante ello, ¿sería recomendable el uso de estos algoritmos para la toma de decisiones por parte de autoridades de un país? Posiblemente, si es que se transparenta cómo se han entrenado esos algoritmos de IA y, finalmente, un grupo de expertos debaten sobre los resultados que da una máquina.
¿Qué pasa cuando ya se usan estos algoritmos por parte de un gobierno y éste no transparenta cómo han sido entrenados, qué datos usan y bajo qué principios y cuestionamientos pueden realizar una aproximación sobre una conducta humana (algoritmos de caja negra: el usuario no puede ver la forma interna de funcionamiento del algoritmo, sabe qué datos entran, pero no cómo es que se crean los que salen), sin tener sesgos sociales o políticos? Cómo sociedad, ¿no deberíamos exigir a un gobierno que ya utiliza la IA para la toma de decisiones, transparentar cómo se usa y bajo qué preceptos se ha entrenado al algoritmo para conocer que no haya sesgos que pongan en riesgo una vida, un derecho o una libertad humana? Es un derecho que todos tenemos: exigir en qué, por qué, dónde y cómo se usan nuestros impuestos.
Leer más: https://www.dineroenimagen.com/paul-lara/ia-y-gobernanza/161072