Como el código fuente hace 30 años, modelos de IA también se están abriendo: Thiago Araki, de Red Hat Latam
“Estamos mirando una transformación muy grande de modelos cerrados a modelos más abiertos”, expuso Thiago Araki, director de Tecnología para América Latina de Red Hat, en entrevista con DPL News.
Explicó que la IA Generativa requiere de modelos, los LLMs, y su paulatina apertura es análoga a la que pasó hace 20 ó 30 años con el código fuente de los sistemas, “que era cerrado y hoy, el modelo por defecto, por excelencia del desarrollo es abierto, entonces estamos pasando justamente por esa transición”.
“Hace tiempo el open source salió del sótano de la TI para estar en el centro de los negocios”, aseveró Araki durante el keynote El futuro de la IA es abierto, que presentó en el Red Hat Summit Connect Ciudad de México 2024, este martes 29 de octubre.
Todo eso, según el ejecutivo, se combina para hacer que Red Hat “sea muy relevante en el mercado”. El ejecutivo explica que, como siempre lo ha hecho, Red Hat “juega con todos”, modelos cerrados y abiertos: “Nosotros nos integramos bien con todos”, dice, aunque reconoce que tienen preferencia por uno en particular: Granite, de su matriz IBM.
Colaboración, contribución y comunidad
Thiago Araki explicó que, fruto de esa colaboración con IBM para liberar y hacer abierto a Granite, ahora no sólo el modelo es abierto, sino también las fuentes de datos utilizadas para entrenarlo.
El directivo reiteró que la visión de Red Hat de que sea un modelo realmente abierto, busca que no sólo sirva de beneficio para sus clientes, sino también para la industria en su conjunto, al “avanzar en este modelo de colaboración e innovación más abierta”.
Relacionado: Red Hat presenta RHEL AI y OpenShift AI en México
“Creamos una forma para que la gente no sólo mire, sino que contribuya de forma muy fácil y eso es importante para la creación de una comunidad, que vive de la contribución de empresas y personas de todos los lados, con miradas y backgrounds diferentes”, afirmó.
Competencia y grado de apertura
“No somos la única empresa que está trayendo modelos abiertos —reconoce, no obstante—, como lo había dicho, hay cada vez más modelos abiertos, el tema es el grado de apertura”, acotó.
“Llama es un modelo abierto que se puede mirar, descargar y utilizar; Mistral AI está basado en una licencia muy conocida del open source, que es Apache, pero no sabemos cómo se fueron entrenando esos modelos, con qué data, y obviamente hay una preocupación muy grande, especialmente en las empresas, de no toparse con ningún problema de propiedad intelectual”, dijo a propósito de los modelos de Meta y la compañía francesa homónima.
“Nosotros lo que estamos haciendo es dar un paso más allá y garantizar que no sólo el modelo es abierto, sino los datos con que se genera este modelo también son abiertos, confiables y de acceso a todos”, finaliza esta parte.
De la IA Predictiva a la IA Generativa: casos de uso
“Con IA trabajamos hace mucho tiempo, en especial, la Inteligencia Artificial Predictiva, incluso un servicio de Inteligencia Artificial a nuestros clientes”, declaró Araki, quien aclaró que “en los últimos dos años, un caso de uso más específico, que es la IA Generativa, surge con mucho interés en el mercado”. Por ello, recalcó, Red Hat puso la IA en todo su portafolio.
También lee: La encrucijada de la Inteligencia Artificial: código abierto vs. código cerrado
Araki detalló que, de esa combinación de procesos, la empresa después toma y libera las tecnologías listas para las empresas para uso de misión crítica en diversas industrias, como las transacciones financieras, las llamadas 5G o la aeronáutica.
Latinoamérica, a la par en la adopción tecnológica
“Latinoamérica dejó de ser una región hace algunos años que iba más atrás del resto, para hoy estar en el mismo nivel la adopción de tecnologías emergentes, como IA, en los diferentes países, y en Europa y en Norteamérica no es distinto”, acotó Araki.
“Hoy tenemos clientes utilizando OpenShift AI RHEL AI en todo Latinoamérica, son tecnologías muy nuevas”, agregó, y comentó que Red Hat ya tiene casos de éxito públicos en la región, entre los que compartió un par del sector gubernamental:
“El gobierno de Uruguay ya está utilizando la IA para simplificar la TI del sector público y ser más eficiente”, declaró. Araki explicó que, a través de tickets, la Agencia de Gobierno Electrónico y Sociedad de la Información y del Conocimiento (Agesic) recibe solicitudes de los otros organismos gubernamentales para crear infraestructura y entornos de cómputo. “Creamos un modelo que fue entrenado con esos tickets y ahora crea las infraestructuras más autónomas sin necesidad de mirar si está bien o mal o si se requiere alguna información adicional”, detalló.
Por último, dijo que en Brasil, Red Hat está trabajando con una entidad de gobierno para crear un chatbot para el ciudadano. “Entonces, en vez de ir al sitio del gobierno para encontrar un servicio digital, el ciudadano chatea con el sistema de gobierno y puede hacer mucho más fácil las interacciones y sacar lo que necesita. Hay ejemplos en todos lados, incluso en México”, concluyó.