OpenAI lanza una versión más pequeña y barata de su modelo de inteligencia artificial

El Mundo-Ángel Jiménez de Luis

Durante los últimos dos años los avances en herramientas modelos de inteligencia artificial han sido exponenciales. También el nivel de recursos necesarios para hacerlos funcionar. Los modelos de lenguaje que hacen posible aplicaciones como ChatGPT o Copilot necesitan una enorme potencia de cálculo que requiere una compleja y costosa infraestructura de servidores y centros de datos.

El último anuncio de OpenAI, la empresa detrás de ChatGPT, va sin embargo en la dirección opuesta. La compañía ha lanzado un nuevo modelo, GPT-4o Mini, que es mucho más barato y consume menos recursos que GPT-4o, su modelo más popular.

Es un lanzamiento que confirma una tendencia por parte de las grandes empresas de IA, desde la propia OpenAI hasta Google, pasando por Anthropic o Apple, hacia soluciones que pueden ejecutarse localmente en dispositivos pequeños, como un teléfono, o en servidores remotos pero con un consumo muy inferior.

Parte del problema que ha obligado a cambiar la estrategia es que el sistema original podía resultar un problema para empresas tratando de construir un negocio sobre estos modelos de lenguaje (que es como se conoce a estos motores de predicción capaces de comprender el lenguaje natural y responder de forma parecida a como lo haría un ser humano).

Leer más.