OpenAI recomienda prepararse para la IA superinteligente

OpenAI publicó el documento “AI Progress and Recommendations”, en el que advierte que la Inteligencia Artificial (IA) se encuentra a pocos años de alcanzar capacidades similares, e incluso superiores, a las humanas. El reporte propone medidas urgentes para garantizar la seguridad, la gobernanza y el uso responsable de estos sistemas a nivel global.

Según OpenAI, los sistemas de IA han experimentado un crecimiento sin precedentes tanto en capacidad como en eficiencia. “En los últimos años, el costo por unidad de inteligencia ha disminuido alrededor de 40 veces por año, lo que ha permitido un salto exponencial en el desempeño de los modelos”, detalla en el comunicado. Con este avance, la IA, que antes realizaba tareas que un humano podía completar en segundos, ahora puede ejecutar actividades que antes requerían horas o incluso días de trabajo. 

En su análisis, OpenAI estima que para 2026 podrían aparecer sistemas capaces de realizar pequeños descubrimientos científicos o técnicos por sí mismos, y que hacia 2028 o más adelante podrían alcanzar descubrimientos de mayor relevancia e impacto. Sin embargo, aún existe una brecha considerable entre las capacidades reales de la IA y el uso cotidiano que la mayoría de las personas hace de ella, una diferencia que podría ampliarse si no se promueve una comprensión pública y política del ritmo del progreso tecnológico.

Te puede interesar: La Inteligencia Artificial falla como terapeuta: investigación expone riesgos éticos en chatbots

El informe reconoce que los sistemas avanzados de IA ofrecen oportunidades excepcionales en campos como la medicina, la educación, la investigación científica y el desarrollo tecnológico. Sin embargo, advierte que el mismo progreso podría conllevar riesgos considerables, especialmente si emergen sistemas con niveles de autonomía o auto-mejora que excedan la supervisión humana.

Además, califica esa posibilidad como un escenario “potencialmente catastrófico” y sostiene que “ningún sistema superinteligente debería ser desplegado sin mecanismos sólidos de control y alineación con los valores humanos”. 

Desde esta perspectiva, el documento plantea dos escenarios posibles para la evolución de la IA. El primero es una progresión similar a otras revoluciones tecnológicas, como la imprenta o Internet, en la que los sistemas avanzan de forma gradual y las instituciones existentes logran adaptarse mediante políticas convencionales.

El segundo escenario, consiste en una transición repentina hacia la superinteligencia, donde las herramientas actuales de regulación, supervisión y cooperación internacional resulten insuficientes para gestionar los riesgos.

En ambos casos, OpenAI sugiere preparación, pero en especial, el segundo implicaría un desafío global inédito, con la necesidad de nuevos marcos regulatorios, coordinación internacional y una respuesta gubernamental anticipada.

Lee también: Republicanos y demócratas buscan prohibir el uso de chatbots de IA a menores

Recomendaciones de OpenAI para los gobiernos

Para enfrentar los retos del futuro inmediato, OpenAI propone cinco líneas de acción prioritarias que deberían guiar la política pública y la gobernanza de la IA avanzada. 

El primero es sobre estándares comunes entre laboratorios líderes, en donde los principales desarrolladores de IA, denominados “frontier labs”, deben colaborar en la creación de normas de seguridad compartidas, intercambio de información sobre riesgos, buenas prácticas de alineación y mecanismos para evitar una competencia descontrolada. 

OpenAI compara esta cooperación con los códigos de seguridad industrial o las normas de construcción que regulan infraestructuras críticas.

La segunda línea es sobre la supervisión pública proporcional al nivel de capacidad, en donde propone que a medida que los sistemas alcancen nuevas capacidades, existan estructuras de supervisión más rigurosas y transparentes. Al respecto, sugiere que los gobiernos adopten políticas dinámicas que puedan escalar junto al desarrollo tecnológico, combinando regulación flexible con mecanismos de evaluación continua.

La infraestructura de seguridad y resiliencia, es la tercera recomendación, para crear lo que la compañía llama un ecosistema completo de “resiliencia de IA”, similar al que se construyó para la ciberseguridad. Esto incluye políticas industriales, centros de monitoreo, equipos de respuesta ante incidentes, protocolos de auditoría y programas de investigación sobre mitigación de riesgos.

También la evaluación constante de los impactos sociales y económicos, en donde el informe subraya la importancia de medir de forma sistemática los efectos de la IA en el empleo, la productividad, la educación y la economía global. 

Por último, el empoderamiento individual a gran escala, en donde OpenAI plantea que el acceso a herramientas de IA avanzada debería convertirse en una utilidad universal, disponible para toda la población dentro de marcos éticos definidos por la sociedad. “Los adultos deberían poder usar la IA en sus propios términos, con el propósito de alcanzar sus metas personales y profesionales”, asegura el informe.

Frente a estas cinco recomendaciones, OpenAI insta a los gobiernos a desarrollar mecanismos de coordinación global que permitan gestionar los riesgos asociados a sistemas cada vez más potentes, incluyendo la posibilidad de usos maliciosos como el bioterrorismo o la manipulación de información a gran escala. 

“Al igual que ocurrió con la energía nuclear o la biotecnología, la IA superinteligente requerirá acuerdos internacionales de supervisión y transparencia entre los principales actores tecnológicos y los estados”, detalla la empresa.

Asimismo, OpenAI advierte que la transición hacia sistemas con capacidades comparables a la inteligencia humana podría producirse en cuestión de años, no de décadas. Por eso, OpenAI enfatiza que la preparación debe comenzar ahora, tanto en el ámbito técnico como en el político y social.