Meta y Zuckerberg lo apuestan todo por remontar la carrera hacia la Superinteligencia
Meta primero lanzó LLaMA, su modelo fundacional de código abierto, para investigadores; después liberó Llama 2 para uso comercial. Ahora, mientras se distribuye su versión 4, su fundador y CEO ha emprendido una auténtica cacería multimillonaria para reclutar a los investigadores más cualificados en IA de sus competidores Google y OpenAI.
Especial: Titanes de la geopolítica digital
Tras haber capturado a cerca de la mitad de la población mundial en alguna de sus plataformas (3.98 mil millones de usuarios entre más de 8 mil millones de habitantes), ahora, en la segunda mitad de 2025, Mark Zuckerberg ha entrado de lleno en la carrera más importante del siglo XXI: la de la Inteligencia Artificial (IA).
Zuckerberg y Meta –como renombró a su empresa en 2021 como una muestra de su apuesta por construir el metaverso– lo están haciendo a través de dos frentes: no sólo mediante el software, que ha sido su bandera desde que creó Facebook en 2004 (ahí está su multicitado modelo de lenguaje abierto LLaMA), sino ahora con el hardware y la infraestructura. Recientemente, el propio Zuck anunció proyectos de Centros de Datos de hasta 5 GW en Estados Unidos y, más estratégico aún, se lanzó a la carga para conformar un equipo de élite con talento de clase mundial, para el que le ha estado “robando” expertos de IA con ofertas multimillonarias a sus rivales de Google y OpenAI.
A inicios de 2025, Zuckerberg señaló que este será un año decisivo para la IA en la empresa: esperaba que Meta AI fuera el asistente principal de más de mil millones de personas y Llama 4 el principal modelo de vanguardia.
LLaMA: el modelo fundacional abierto y eficiente de Meta
En febrero de 2023, la vuelta de página del año que OpenAI liberó al público ChatGPT, Meta presentó LLaMA, acrónimo de Large Language Model Meta AI, su modelo de lenguaje grande (LLM) de código abierto.
Originalmente, la compañía lo describió como un modelo fundacional “más pequeño”, debido a que requería mucho menos poder computacional. El lanzamiento inicial incluyó diversos tamaños (7,13,33 y 65 mil millones de parámetros) y, lo más importante, Meta publicó el modelo bajo una licencia no comercial enfocada en casos de uso de investigación.
Meta detalló que entrenó LLaMA 65B y 33B con 1.4 billones (trillions, en inglés) de tokens y el más pequeño, LLaMA 7B, con un billón. Para entrenar el modelo, Meta seleccionó textos de los 20 idiomas con mayor número de hablantes en el mundo, centrados en aquellos con alfabeto latino y cirílico.
Tan sólo cinco meses más tarde, en julio de 2023, Meta lanzó Llama 2, junto a Microsoft. Informó que para ese entonces había recibido más de 100,000 solicitudes de investigadores para acceder a su modelo. Para esta segunda versión, Microsoft sería su “socio preferido”, por lo que estaría disponible en el catálogo de modelos de IA de Azure. También, agregó, estaría disponible en Amazon Web Services (AWS) y Hugging Face.
Posteriormente, Meta liberó las versiones 3 y 4 de Llama, este último, un modelo multimodal que la empresa clama que es superior al de sus competidores, aunque no tuvo una respuesta muy entusiasta por parte de la comunidad de desarrolladores.
Hay una figura que ha sido clave en el desarrollo de todos los modelos abiertos de Meta: Yann LeCun, investigador francés y uno de los científicos más renombrados en las áreas de la Inteligencia Artificial y el Aprendizaje Profundo, que incluso es considerado padrino de ambos. LeCun se unió a Facebook en 2013 y fue científico jefe del entonces Facebook AI Research, posteriormente renombrado como Fundamental AI Research de Meta.
Laboratorio de Superinteligencia
Meta, no obstante, ha reforzado su apuesta por la Inteligencia Artificial más allá de Llama. En los últimos dos meses, Zuckerberg se ha lanzado a la auténtica caza del mejor talento de expertos, en su mayoría asiáticos, para construir su nuevo Laboratorio de Superinteligencia o Meta Superintelligence Labs (MSL).
Este agresivo proceso de reclutamiento se ha hecho a partir de su supremacía económica, mediante inversiones y ofertas millonarias: a inicios de junio se hizo pública su inversión en Scale AI, una startup de Inteligencia Artificial a la que destinó 14,300 millones de dólares a cambio del 49% de las acciones y el fichaje de su fundador y CEO, Alexandr Wang, quien fungirá como Jefe de IA de Meta y director de MSL.
En un memorando interno dirigido a sus empleados, Zuckerberg consideró que el desarrollo de la Superinteligencia sería el “comienzo de una nueva era para la humanidad”, y se dijo totalmente comprometido a hacer todo lo necesario para que Meta lidere el camino en lo que constituye su visión: Superinteligencia personal para todos.
Esto podría materializarse a causa de su multipropiedad, ya que Meta lo ha empujado con vehemencia mediante la incorporación “forzada” de Meta AI en todas sus plataformas: Facebook, Instagram y WhatsApp, al grado de que algunos de sus usuarios han buscado tutoriales en Internet sobre cómo desactivarla.
Además de Wang, a quien Zuckerberg calificó como “el fundador más impresionante de su generación”, Meta incorporó a una pléyade de ingenieros, como Trapit Bansal, Suchao Bi, Huiwen Chang, Ji Lin, Joel Pobar, Jack Rae, Hongyu Ren, Johan Schalkwyk, Pei Sun, Jiahui Yu y Shengjia Zhao, todos ellos investigadores con experiencia previa en OpenAI o Google, entrenando o creando algunos de sus modelos fundacionales, GPT o Gemini, en cualquiera de sus versiones, e incluso en Anthropic.
Los últimos serán los primeros. La última revelación de Zuckerberg, hecha apenas este viernes 25 de julio, es que Shengjia Zhao será el científico jefe de su Laboratorio de Superinteligencia. En su palmarés, Zhao cuenta con haber sido co-creador de ChatGPT, GPT-4, todos los modelos mini de OpenAI, 4.1 y o3, además de haber liderado la generación de datos sintéticos en la organización.
Según reportes de la prensa estadounidense, Meta ha ofrecido algunos de los paquetes salariales más altos jamás vistos en la industria tecnológica, que incluso llegan a acuerdos de compensación total por hasta 300 millones de dólares durante 4 años. E incluso ha trascendido que algunas ofertas anticipan más de 100 millones de dólares sólo en el primer año, con suntuosos beneficios como la adquisición inmediata de acciones y el acceso garantizado a hardware computacional de IA de vanguardia.
Infraestructura para sustentar el crecimiento
No obstante, la última apuesta a escala de Meta en este sentido fue el desvelamiento de sus proyectos de infraestructura: Zuckerberg anunció, a mediados de julio, que su empresa gastaría cientos de miles de millones de dólares para construir varios Centros de Datos masivos para Superinteligencia.
A través de una publicación en Facebook, el fundador y CEO adelantó que su primer Centro de Datos, llamado Prometeo, estaba previsto para entrar en línea en 2026, mientras que otro, bautizado como Hyperion, arrancaría con 1.5 GW en 2027 y sería capaz de escalar hasta los 5 GW en los próximos años.
En su post, Zuckerberg utilizó una referencia del imaginario estadounidense para ilustrar la magnitud de Hyperion: dijo que el clúster cubriría una parte significativa de la huella de Manhattan. En términos técnicos, sería más preciso señalar que esos hipotéticos 5 GW –aunque quizás previstos para concretarse durante la próxima década– equivalen a prácticamente la totalidad de la capacidad instalada actual de Virginia (5.9 GW), el mayor hub de Data Centers en Estados Unidos y el mundo entero.
Esto representa un paso más a materializar el pronóstico de SemiAnalysis, que en un informe citado por Zuckerberg vaticinaba que Meta estaba en camino de convertirse en el primer laboratorio de IA en poner en funcionamiento un superclúster de más de un gigawatt en Estados Unidos. OpenAI también se encuentra en esa carrera, con una potencia computacional de 1 GW construida en asociación con Oracle prevista para 2026.
Previamente, a inicios de 2025, Zuckerberg había revelado que Meta invertiría entre 60 y 65 mil millones de dólares para incrementar su capacidad de cómputo y ampliar su plantilla de desarrolladores. Como parte de sus planes de infraestructura y hardware, el fundador anticipó la construcción de 1 GW de potencia a lo largo del año en un Centro de Datos “tan grande que cubriría una parte significativa de Manhattan” y sería impulsado por 1.3 millones de GPUs.
En suma, Meta no llegó tarde, pero no fue el primero ni tampoco el último en incursionar en el campo de la Inteligencia Artificial, aunque sí es, quizás, la Big Tech que más estruendosamente lo ha hecho en fechas recientes. Una ventaja que podría ayudarle a la empresa a materializar la visión de Superinteligencia personal para todos de su fundador y CEO, Mark Zuckerberg, es que ya tiene a la mitad de la población mundial en alguna de sus plataformas. Sólo le faltaría el equipo y el poder de cómputo necesario para satisfacer la demanda a esa escala, algo que también ya ha comenzado a construir.
 
			
