Este jueves 4 de mayo, los directores ejecutivos de las principales empresas de Inteligencia Artificial (IA) se reunieron con el presidente de los Estados Unidos, Joe Biden, y la vicepresidenta Kamala Harris, junto con otros funcionarios, para hablar sobre la necesidad de un desarrollo ético y seguro de la IA.
La reunión incluyó a Sundar Pichai de Google, Satya Nadella de Microsoft, Sam Altman de OpenAI y Dario Amodei de Anthropic, otra compañía fundada por exmiembros de OpenAI.
En este encuentro, Biden y Harris dejaron en claro que dado el papel que desempeñan estas empresas en el ecosistema de innovación de IA, tienen la responsabilidad ética, moral y legal de garantizar que sus productos como ChatGPT, Bard y Bing Chat sean seguros y protejan los derechos de las personas.
La administración Biden instó a las empresas a comprometerse a ser más transparentes y rendir cuentas con los legisladores y el público acerca de sus sistemas de IA, así como garantizar que estén protegidos contra actores y ataques maliciosos.
Análisis: ChatGPT y los mercados de Inteligencia Artificial
En un comunicado, Harris reconoció que las tecnologías de Inteligencia Artificial tienen el potencial de mejorar la vida de las personas, pero al mismo tiempo amenazan la privacidad, los derechos civiles, la confianza pública y la fe en la democracia.
Como ejemplo señaló la injerencia rusa en las elecciones de 2016 como una forma en que esta tecnología puede socavar los procesos democráticos. Harris también mencionó que la administración está abierta a promover nuevas regulaciones y apoyar una legislación sobre Inteligencia Artificial.
Al final, ambas partes acordaron que se necesita más trabajo para desarrollar y garantizar que el pueblo estadounidense pueda beneficiarse de la IA. Sin embargo, esta reunión es una advertencia de que los desarrolladores de Inteligencia Artificial se enfrentarán a un mayor escrutinio si no actúan responsablemente.
Además, antes de la reunión la administración Biden anunció que invertirá 140 millones de dólares para poner en marcha siete nuevos centros de Investigación y Desarrollo (I+D) sobre IA, como parte de una serie de medidas destinadas a mitigar los riesgos asociados con esta tecnología.