AWS se enfoca en facilitar y bajar los costos de desarrollo de IA

Las Vegas, Nevada.- Amazon Web Services (AWS) presentó una nueva ronda de actualizaciones de sus soluciones enfocadas en el desarrollo de Inteligencia Artificial (IA), incluyendo nuevas funcionalidades para administrar la capacidad de entrenamiento de modelos desde SageMaker, así como la presentación de Amazon Bedrock Marketplace, que facilitará el acceso a múltiples modelos, incluyendo la nueva familia Nova de la compañía.

A un par de años de que se presentaran las primeras soluciones de IA Generativa, esta ha comenzado a ser utilizada por múltiples compañías en algunos primeros casos de uso, como mejorar la calidad de las respuestas en tareas de atención al cliente; generar textos publicitarios e imágenes a escala en el área de marketing, y por desarrolladores que aprovechan la IA en todo el proceso de desarrollo de software.

Swami Sivasubramanian, vicepresidente para servicios de datos y Machine Learning en AWS, destacó que en compañías como Rocket Companies, especializada en bienes raíces, la IA ya ha generado un ahorro de aproximadamente 800 mil horas de trabajo de los miembros del equipo al año. Asimismo, la Fórmula 1 ya utiliza la IA para optimizar los procesos de fabricación.

Para acelerar estos casos de uso y facilitar su entrenamiento, el directivo presentó nuevas funcionalidades para la plataforma de Machine Learning, Sagemaker. Sivasubramanian reconoció la complejidad de entrenar un modelo de IA que implica recolectar grandes cantidades de datos, la creación de clústers, inspeccionar constantemente su avance y remediar posibles problemas de hardware.

En ese sentido, anunció la introducción de SageMaker HyperPOD, que habilita el entrenamiento a gran escala en clústers de GPUs, con capacidades de respaldo, mejor confiabilidad y reducción en los costos de entrenamiento

Una de las nuevas características destacadas por el directivo fue la funcionalidad de planes flexibles de entrenamiento, enfocada principalmente en establecer horarios y flujos de trabajo que aprovechen al máximo la infraestructura contratada, como las GPUs, para que funcionen para múltiples proyectos al mismo tiempo.

También lee: AWS moderniza infraestructura con nuevos chips y soluciones para acelerar adopción de IA

Task Governance fue otra funcionalidad recién añadida a SageMaker, que busca evitar que la infraestructura tenga tiempos de inactividad demasiado largos y maximizar la utilización de cómputo contratada. Según AWS, esta funcionalidad promete hasta un 40 por ciento en ahorros y un 90 por ciento de utilización de los clústers. Esta característica soporta diferentes cargas de trabajo, como inferencia en el día y entrenamiento en la noche.

Adicionalmente, para acelerar las tareas de entrenamiento y desarrollo, AWS introdujo también “recetas” para fine-tuning, con 30 guías predefinidas. El objetivo es facilitar el uso de grandes modelos de lenguaje (LLM) y reducir la experiencia necesaria en áreas como la ciencia de datos.

Algunas de estas funcionalidades ya son utilizadas por algunos socios de AWS, como la herramienta de desarrollo 3D AutoDesk, la cual afirma que ha logrado reducir el tiempo de desarrollo de modelos fundacionales en hasta un 50 por ciento, al tiempo que ha disminuido sus costos en 30 por ciento.

Sivasubramanian presentó también más novedades para Bedrock, que ahora ya incluye los modelos fundacionales desarrollados por la propia Amazon, conocidos como Nova. A partir del próximo año, la plataforma también incluirá las herramientas de ingeniería de software para IA de Poolside, Malibu y Point. Adicionalmente, contará con el nuevo transformador de difusión Stable Diffusion 3.5 de Stability AI, como el modelo más estable para generación de imágenes.

El directivo también adelantó la disponibilidad de Luma AI para la generación de videos. Según Luma, Ray2 será el modelo más complejo para la creación de imágenes hiperrealistas, con nuevos controles sobre composición, cámara y acciones. La compañía espera que esta nueva herramienta habilite su uso para creación de comerciales, por ejemplo, al ofrecer una mayor consistencia de personajes y escenas.

AD 4nXcYmGSOeypVPb5onNgBpTVWhbmuMSIdz9c9RkW2Kz6CSMDqwplWKwZpEydFq089PLXRsn1FYOR4pe0a1 P2sF9OrmN7l8Xd1lIP6 CG0QsYKI7PsGOcM1cgVPETe5ghJBTaAs1LsA?key=btOA zqxlPvl UQoiH2 uIdj

En tanto se suman más funcionalidades y modelos a Bedrock, Sivasubramanian anunció también la disponibilidad de un nuevo Marketplace, con más de 100 modelos especializados, como nuevos modelos de IBM. Esta característica también busca facilitar la prueba de los modelos desde la consola de AWS, y una fácil integración de políticas de seguridad y privacidad.

Otro de los retos a resolver para atender los altos costos por uso de IA es la repetición constante de indicaciones (prompts) o cuando son inadecuadas, lo que implica una mayor demanda de procesamiento. Para ello, Sivasubramanian presentó una nueva funcionalidad para realizar fácilmente caché y mantener la exactitud.

Esta funcionalidad reconoce automáticamente datos repetidos ingresados –como preguntas sobre documentos–, con lo que puede reducir los costes hasta en un 90 por ciento, y mejora la latencia hasta en un 85 por ciento. Por ejemplo, la compañía señala que esta será atractiva para escenarios con procesamiento repetido de documentos, como despachos de abogados, que podrán realizar consultas sobre documentos sin necesidad de que se vuelvan a procesar si la pregunta ya se ha hecho antes.

Además, Bedrock recibirá la funcionalidad de Intelligent Prompt Routing, también enfocada en optimizar costos, ya que buscará ayudar a los usuarios a mejorar la elección de los modelos mediante la predicción del rendimiento de cada modelo para cada solicitud y determinar cuál tendrá más probabilidades de dar la respuesta deseada al menor coste. Según la compañía, puede reducir los costes hasta un 30 por ciento sin comprometer la precisión.

Por otro lado, Bedrock también buscará atender la demanda por aprovechar datos no estructurados en aplicaciones de IA. Para ello, se integrará la función Data Automation, que podrá utilizar información de datos como videos, imágenes, audio y documentos con una sola API. AWS señala que esta funcionalidad podría funcionar para bancos que capturan múltiples documentos con una variedad de datos como nombres o fechas de nacimiento de forma consistente.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies