Expertos, académicos y empresarios, incluidos Elon Musk y Steve Wozniak, firmaron una carta publicada por el Future of Life Institute para llamar a poner una pausa de seis meses a los grandes desarrollos de Inteligencia Artificial (IA), en tanto advierten sobre riesgos potenciales para la sociedad.
La carta reconoce el potencial que puede tener la IA para cambiar la historia de la humanidad, por lo que considera que su desarrollo debe ser planeado y bien administrado. Sin embargo, “este nivel de planificación y gestión no está ocurriendo”.
El Instituto advierte que las grandes compañías y laboratorios de IA se han enfocado en una acelerada carrera para el desarrollo de “mentes digitales” más poderosas, “que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”.
A principios de este mes, OpenAI, respaldado por Microsoft, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que ha logrado cautivar la atención del público en diferentes actividades, ya sea desde mantener conversaciones más naturales, hasta la solicitud de tareas, ayuda con proyectos o hasta fundar empresas.
El propio OpenAI reconoce que “puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos”, según cita el Instituto.
“Los potentes sistemas de Inteligencia Artificial deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, agrega la carta.
En ese sentido, el Future of Life Institute considera que el momento para hacer una evaluación de estos sistemas es ahora y hace un “llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.
Recomendado: Pesadillas tecnológicas que no te dejarán dormir esta noche
La organización sin fines de lucro está financiada principalmente por la Fundación Musk, así como por el grupo Founders Pledge con sede en Londres y la Fundación Comunitaria de Silicon Valley, según el registro de transparencia de la Unión Europea.
La pausa debería ser aprovechada, según el instituto, para desarrollar e implementar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes.
“La IA me estresa”, dijo Musk a principios de este mes, pese a ser uno de los inversionistas de OpenAI y su experiencia en el uso de esta tecnología para la fabricación y operación de automóviles Tesla.
Hasta el momento, la carta ha sido firmada por mil 482 personas, entre los que destacan Musk y Wozniak, además de Evan Sharp, cofundador de Pinterest; Craig Peters, CEO de Getty Images; y Jaan Tallinn, cofundador de Skype, del Centro para el estudio del riesgo existencial, y del Future of Life Institute.
También la firman Zachary Kenton y Ramana Kumar, investigadores de DeepMind, compañía británica que recientemente se alió con Google para el desarrollo de capacidades de IA que permitan competir a OpenAI.