Barcelona, España.- Aunque los procesos de automatización de las redes tienen más de una década de haber iniciado en el sector de telecomunicaciones, actualmente cerca del 50 por ciento de los operadores están probando sistemas autónomos, según cifras de Heavy Reading. En ese sentido, fabricantes de equipos advirtieron que este proceso va apenas “a la mitad”, en medio de múltiples retos como la naturaleza aislada de la infraestructura de telecomunicaciones.
En el MWC, los principales fabricantes de equipo como Intel, Nvidia y Samsung coincidieron en que aunque las redes autoorganizadas (SON) existen desde hace tiempo, su implementación ha sido fragmentada. En particular, destacaron los beneficios de reducir el costo total de propiedad (TCO), maximizar el retorno de la inversión, mejor gestión de los recursos a través de la predicción y la supervisión, y un mayor aprovechamiento de los recursos de la red.
Alex Jinsung, socio principal de SoftBank, reconoció que la automatización está siempre en la agenda de los operadores, dado que aporta múltiples beneficios como mantener bajo control el TCO, es un habilitante de la eficiencia y, por tanto, maximiza los beneficios de la inversión. Sin embargo, la realidad es que el sector apenas “va a la mitad”, en conjunto con otras tendencias como la cloudificación, derivado de los retos en la operación de las redes, cuyos componentes funcionan como silos: RAN, red de transporte, fija, etc. y complica la implementación multidominio y multicapa.
Para Cristina Rodríguez, vicepresidenta y directora del grupo de soluciones para comunicaciones de Intel, el primer paso es tener una plataforma y arquitectura para iniciar el proceso de automatización y eso significa implementar la red definida por software y la virtualización de la red, lo que habilitaría la innovación y capacidades de telemetría en cada parte de la red.
Ronnie Vasishta, vicepresidente para telecom de Nvidia, explicó también que la implementación de IA/ML tradicional se ha utilizado en redes autoorganizadas, lo que se podría considerar como una primera generación. Resaltó que actualmente la nueva IA Generativa y los modelos grandes de lenguaje (LLM) ofrecen herramientas prometedoras para la automatización multidominio.
En ese sentido, tiene potenciales de uso como la gestión de infraestructuras, en algoritmos de radio, para la previsión y optimización del tráfico y para la reducción del consumo de energía.
Este último punto fue identificado como uno de los principales beneficios, en que los fabricantes de equipo han logrado integrar modelos de IA para reducir el consumo de las redes mientras no exista tráfico. Durante el MWC 2025, Intel presentó la nueva serie Xeon 6 con E-Cores enfocada en esta tarea. Asimismo, Verizon anunció recientemente pruebas para ahorro de energía con tecnología de IA de Samsung.
Los ponentes también debatieron sobre el tipo de modelos de IA que serían más aptos para la automatización de las redes. Mientras que Intel considera un enfoque basado en modelos más eficientes y pequeños que permiten tareas de inferencia desde un CPU, Jinsung advirtió que el uso de múltiples modelos podría incrementar la complejidad operativa de las redes, por lo que recomendó utilizar un modelo fundacional entrenado con gran cantidad de datos que pudiera aplicarse en múltiples casos de uso.
Jinsung elaboró también sobre lo que llamó el bucle cerrado de la automatización que requiere tres componentes clave: la observabilidad para la recopilación de datos, los modelos básicos para la optimización y la determinación de políticas y servidores de políticas para traducir los resultados de la IA en comandos procesables.
Vasishta explicó también las diferentes modalidades de la IA Generativa y la importancia de contar con datos para el entrenamiento de modelos, aun cuando puedan ser sintéticos. “Puedes entrenar en datos offline y puedes desplegarlos online. Y puedes desplegarlos en microservicios de inferencia que son serverless sobre una red definida por software. La inferencia de ese bucle cerrado puede ser en tiempo real”, destacó.
Al respecto, habló sobre los microservicios de inferencia ligeros (NIM) desarrollados por Nvidia que no soportan todo el peso de los LLM, que son rápidos y seguros, y se pueden implementar sobre una GPU pequeña.