Meta anuncia oficialmente Code Llama, para programar mediante Inteligencia Artificial
Después de varios meses de filtraciones y rumores, Meta anunció oficialmente la disponibilidad de su nuevo modelo de lenguaje de gran tamaño (LLM), Code Llama, enfocado en mejorar los procesos de formación de código, tanto para desarrolladores experimentados como para aquellas personas que buscan formar experiencia en el área.
Code Llama funciona de forma similar a un modelo de Inteligencia Artificial (IA) Generativa como ChatGPT, pero con la principal diferencia que la herramienta de Meta está enfocada en tareas de formación, revisión y mejora de código informático.
La compañía afirma que este nuevo modelo “tiene el potencial de usarse como una herramienta educativa y de productividad para ayudar a los programadores a escribir software más sólido y bien documentado”.
Meta espera que este modelo pueda ayudar a los desarrolladores a hacer más ágiles sus flujos de trabajo, de modo que se puedan enfocar en los aspectos más creativos y reducir el número de tareas repetitivas.
También lee: Kaspersky advierte que robo de datos y ataques a banca están al alza en la región
Según explica Meta, Code Llama sería introducido al mercado bajo la licencia abierta de Llama 2, un LLM de código abierto desarrollado por la propia empresa. En ese sentido, estará disponible tanto para uso comercial como para investigación bajo la misma licencia comunitaria.
Agrega que Code Llama es una versión especializada en código de Llama 2. Con un entrenamiento más especializado y mejores muestras, Code Llama puede generar código y lenguaje natural sobre el código, tanto a partir de indicaciones de código como de lenguaje natural. También se puede utilizar para completar y depurar código.
Es compatible con muchos de los lenguajes de programación más populares que se utilizan en la actualidad, incluidos Python, C++, Java, PHP, Typescript (Javascript), C#, Bash y más. El modelo incluye dos variaciones especializadas: Code Llama – Python y Code Llama – Instruct.
Estará disponible en tres tamaños con parámetros 7B, 13B y 34B. Cada uno de estos modelos está entrenado con 500 mil millones de tokens de código y datos relacionados con el código. Los modelos base e instrucción 7B y 13B también han sido entrenados con la capacidad de Fill In the Middle (FIM), lo que permite insertar código en el código existente.
Los tres modelos abordan diferentes requisitos de servicio y latencia. El modelo 7B, por ejemplo, puede funcionar con una sola GPU. El modelo 34B ofrece los mejores resultados y permite una mejor asistencia de codificación, pero los modelos más pequeños 7B y 13B son más rápidos y más adecuados para tareas que requieren baja latencia, como la finalización de código en tiempo real, según indica Meta.
MediaTek se suma a Llama 2
Mediatek anunció recientemente que colaborará en el desarrollo de Llama 2 de Meta, con la finalidad de impulsar el ecosistema de Edge Computing acelerando el desarrollo de aplicaciones de IA en teléfonos inteligentes, IoT, vehículos, hogares inteligentes y otros.
En un comunicado, MediaTek explicó que en conjunto con las más recientes APU (Accelerated Processing Unit) y plataforma de IA Neuropilot, Llama ayudará a ejecutar aplicaciones de IA Generativa directamente en los dispositivos, lo que daría múltiples oportunidades como mayor privacidad, mejor seguridad y confiabilidad, menor latencia, la capacidad de trabajar en áreas con poca o ninguna conectividad y menor costo de operación. Actualmente, la mayoría de cargas de IA se ejecutan desde la Nube.
La compañía taiwanesa busca aprovechar la oportunidad de ofrecer los Systems-On-Chips (SoC) demandados para ejecutar las tareas de IA directamente en los dispositivos. Asegura que actualmente sus chips 5G ya cuentan con las APUs requeridas para realizar una amplia variedad de funciones de IA Generativa, como reducción de ruido de IA, superresolución de IA, MEMC de IA y más.
La próxima generación de chipsets insignia de MediaTek, que se presentará a finales de este año, contará con software optimizado para ejecutar Llama 2, así como una APU mejorada con aceleración de red troncal del transformador, acceso reducido de huella y uso de ancho de banda DRAM, además de mejorar aún más el LLM y el rendimiento AIGC.