OpenAI, la organización fundada y dirigida por Sam Altman que desarrolló ChatGPT, está muy preocupada por el avance sin frenos de la Inteligencia Artificial (IA) y, en específico, de la superinteligencia, que aseguró que “será la tecnología más impactante que la humanidad haya inventado y podría ayudarnos a resolver muchos de los problemas más importantes del mundo”.
Sin embargo, advirtió que su vasto poder “también podría ser muy peligroso y llevar a la pérdida de poder, e incluso a la extinción de la humanidad”, como lo advirtió el propio Altman en un comunicado difundido junto a otros expertos a finales de mayo.
Consulta: Llaman a mitigar riesgo potencial de ‘extinción’ de la IA como las pandemias y la guerra nuclear
Agregó que, la gestión de estos riesgos requerirá, entre otras cosas, nuevas instituciones para la gobernanza y la solución del problema de la alineación de la superinteligencia.
“Necesitamos avances científicos técnicos para dirigir y controlar los sistemas de Inteligencia Artificial mucho más inteligentes que nosotros”, explicó OpenAI. Por ello, anunció que, en el mediano plazo, durante los próximos cuatro años, dedicará el 20 por ciento de su capacidad de cómputo a la formación de un equipo de superalineación codirigido por Ilya Sutskever y Jan Leike con los mejores ingenieros e investigadores de Machine Learning (ML).
El objetivo del equipo será construir un investigador de alineación automatizado de nivel aproximadamente humano; por lo que luego podrá usar grandes cantidades de cómputo para escalar sus esfuerzos y alinear iterativamente la superinteligencia.
OpenAI detalló que, para alinear el primer investigador automatizado, necesitará 1) desarrollar un método de entrenamiento escalable, 2) validar el modelo resultante y 3) hacer una prueba de esfuerzo de toda su canalización de alineamiento.