Excélsior Paul Lara
A corto plazo, hay tres peligros que la Inteligencia Artificial puede crear: la creación de contenido digital, cuya veracidad será imposible de comprobar para el “usuario promedio”, el reemplazo de trabajadores en una amplia gama de oficios y que los sistemas de IA se conviertan un día en armas autónomas, una especie de “robots asesinos”.
Esto es lo que asegura Geoffrey Hinton, el famoso “padrino de la Inteligencia Artificial” y quien renunció a Google hace unos días para alertar de la carrera entre compañías tecnológicas para desarrollar productos de IA.
Hinton, de 75 años, asegura que esta tecnología amenaza a la humanidad, porque funciona mejor que el cerebro humano y nadie puede garantizar que podrá ser controlada. A lo largo de los últimos meses, desde que fue liberado Chat GPT de Open AI al usuario promedio, le he estado insistiendo en este espacio sobre lo necesario que es que se regule este tipo de tecnologías, o nos arrepentiremos años después.
La irresponsabilidad de empresas como Open AI y Microsoft de poner estos chatbots avanzados a disposición de todos ha conllevado a que miles de empresas como Google no tengan más remedio que responder a eso. No pueden simplemente sentarse y no competir con Microsoft, explica Hinton.
Google estaba a la cabeza de la IA y optó por no publicar estas cosas debido a todos los peligros. Los usaron internamente para mejorar la búsqueda, pero en realidad no los dieron a conocer al público, a pesar de que tenían chatbots, debido a los peligros potenciales.
Hinton ha alertado sobre la posibilidad de producir automáticamente textos con información falsa o para que se puedan crear herramientas muy efectivas que permitan a líderes autoritarios manipular a sus electores, por ejemplo. Pero lo que más preocupa es que estas IA se vuelvan más inteligentes que nosotros. “Recientemente llegué a la conclusión de que el tipo de inteligencia que desarrollamos es muy diferente de la inteligencia que tenemos. Somos sistemas biológicos y éstos son sistemas digitales. La gran diferencia con los sistemas digitales es que tienes muchas copias del mismo conjunto, del mismo modelo del mundo, y todas estas copias pueden aprender por separado, pero comparten su conocimiento al instante.
“Es como si tuviéramos 10 mil personas y cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así es como estos sistemas logran saber mucho más que el resto”, explica Hinton.
Entonces, ¿qué hacer para evitar la catástrofe que se plantea puede llegar por no regular la IA? Y reitero, no es parar el desarrollo de esta tecnología, pero sí evitar que sea controlada por unos pocos.
El pasado viernes, Joe Biden, presidente de Estados Unidos, se reunió con empresarios y CEOs de empresas como Google, Microsoft, Open AI, entre otros, para hablar del futuro de la IA, sus riesgos y una regulación al respecto.
En esta reunión, los representantes de la Casa Blanca anunciaron que apoyarán un ejercicio de hackeo masivo para evaluar los chatbots de IA más famosos. La actividad se realizará en agosto de este año en Las Vegas, durante la conferencia de seguridad Defcon, el evento más importante en su tipo en todo el mundo. Las grandes tecnológicas participarán y han confirmado que abrirán los códigos fuente de sus IA para conocer sus vulnerabilidades y riesgos de ser hackeadas.
Este ejercicio independiente proporcionará información crítica a los investigadores y al público sobre los impactos de estos modelos. La idea, además, es que las compañías desarrolladoras puedan tomar medidas para solucionar los problemas que se encuentren en sus modelos.
Habrá cuatro mil “piratas informáticos”, que podrán meterle mano a la tecnología que ha revolucionado al mundo en los últimos meses. Este evento de hackeo masivo abrirá el código para programas de IA como ChatGPT de OpenAI, Bard de Google, Stable Diffusion y Hugging Face de Stability AI. La idea es detectar vulnerabilidades o eludir los mecanismos de seguridad de estas herramientas.
Además de su apoyo al evento de hackeo masivo de IA, la Casa Blanca también anunció que invertirá 140 millones de dólares en la creación de siete nuevos Institutos Nacionales de Investigación de la IA. Todos se centrarán en el desarrollo de una IA ética y transformadora para el bien público. Al menos es un inicio, que ojalá se replique en países como México.