Google, Microsoft y OpenAI crean nuevo foro para autorregular modelos de IA

Google, Microsoft y OpenAI anunciaron este martes la creación del Foro de Modelos de Frontera (Frontier Model Forum), un nuevo organismo de la industria enfocado en garantizar el desarrollo seguro y responsable de los modelos de Inteligencia Artificial de frontera.

El Foro se basará en la experiencia técnica y operativa de sus miembros, las empresas líderes en el desarrollo de modelos de IA Generativa, como ChatGPT y Bard para beneficiar a todo el ecosistema de IA, a través de diversas estrategias, como las evaluaciones técnicas y puntos de referencia, y el desarrollo de una biblioteca pública de soluciones para respaldar las mejores prácticas y estándares de la industria.

Frontier Model Forum tiene cuatro objetivos principales:

  1. Avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar los riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
  2. Identificar las mejores prácticas para el desarrollo e implementación responsable de modelos de frontera, ayudando al público a comprender la naturaleza, capacidades, limitaciones y el impacto de la tecnología.
  3. Colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre riesgos de confianza y seguridad.
  4. Apoyar los esfuerzos para desarrollar aplicaciones que puedan enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación del cambio climático, la detección y prevención tempranas del cáncer y la lucha contra las ciberamenazas.

El Foro define los modelos de frontera como modelos de Aprendizaje Automático (Machine Learning) a gran escala que superan las capacidades que actualmente están en los modelos más avanzados y pueden realizar una amplia variedad de tareas.

No obstante, detalló que la membresía está abierta a las organizaciones que desarrollen modelos de frontera, demuestren un fuerte compromiso con la seguridad y estén dispuestos a contribuir al avance de los esfuerzos del Foro, por lo que invitó y les dio la bienvenida a aquellas organizaciones que cumplan con dichos criterios.

Lee también: Biden advierte peligros de la IA sin las medidas de seguridad adecuadas

Los gobiernos y la industria coinciden en que, si bien la IA ofrece una gran promesa para beneficiar al mundo, se requieren medidas adecuadas para mitigar sus riesgos. Los gobiernos de Estados Unidos y el Reino Unido, la Unión Europea, la OCDE y el G7 ya han hecho contribuciones importantes a estos esfuerzos.

Por ello, los miembros detallaron que, durante el próximo año, el Foro se enfocará en tres áreas clave: identificación de mejores prácticas, investigación de seguridad de la IA y facilitar el intercambio de información entre empresas y gobiernos.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies