IA vs. IA: cómo puede ser una herramienta de defensa, pero también una amenaza

Aunque la Inteligencia Artificial comienza a demostrar su valor como herramienta en los procesos de seguridad, también implica la presencia de nuevos riesgos, desde la ampliación de la superficie de ataque hasta su uso por cibercriminales, explicaron ejecutivos de IBM.

Juan Carlos Zevallos, director de Ciberseguridad en América Latina para IBM, citó un estudio de la compañía, el cual revela que los costos derivados de una filtración en América Latina se incrementaron en un 76 por ciento durante 2023, con lo que en promedio se elevó a 2.46 millones de dólares.

Más allá del costo para las víctimas, alertó que los ciberataques tienen consecuencias a nivel del orden social, pueden alterar un mercado o los precios de los insumos en las industrias.

Bajo este contexto, la IA ha logrado llegar a cierta madurez para ampliar su uso como herramienta de defensa en la prevención o respuesta de ataques; sin embargo, también se ha incrementado entre los cibercriminales, quienes ahora pueden acceder a estas herramientas para escalar y hacer más efectivos sus ataques.

En cuanto a su uso como herramienta de defensa, Zevallos señala que la IA es un gran aliado para cubrir uno de los elementos más relevantes después de un ataque: reducir el tiempo para identificar y contener una amenaza al contar con herramientas automatizadas mediante IA.

Según IBM, si se logra una respuesta dentro de los primeros 200 días, el costo se puede mantener por debajo de 2.13 millones de dólares, pero si pasa de este tiempo podría elevarse a 2.79 millones.

Datos de la compañía indican también que 55 por ciento de las empresas encuestadas señaló haber reducido su tiempo en triage (identificar, priorizar y resolver) con herramientas de IA, a la vez que un 85 por ciento reportó una reducción en el tiempo de respuesta.

Por ello, 85 por ciento de las empresas indicó que priorizará el uso de herramientas de seguridad con IA sobre las tradicionales, ya que estas podrán ayudar a los analistas de ciberseguridad al análisis de datos, predicción y protección de amenazas.

Sin embargo, Zevallos reconoció que al tiempo en que se convierte en una herramienta que impulsa la productividad de las empresas, el acceso a los datos y el uso de información valiosa para que funcionen los modelos de IA, también la convierten en un nuevo objetivo de los cibercriminales.

Por ello, recomendó que la seguridad se debe integrar desde el modelo, para proteger los datos, pero también asegurarse que se hace un buen uso de la IA, en líneas con las guías de ética y responsabilidad.

Por otro lado, Bruno Pancica, director de Ciberseguridad para IBM México, alertó sobre el uso de herramientas de IA entre los cibercriminales. Explicó que aunque no se va a generar un cambio radical en el tipo de ataques, la IA permitirá escalar y reducir el tiempo de los mismos.

Por ejemplo, ya es una realidad que se ha utilizado IA para crear phishing más efectivo, que existen en el mercado grandes modelos de lenguaje (LLMs) maliciosos como FraudGPT, que reducen la barrera de entrada para atacantes menos expertos, así como la creación de deepfakes, especialmente conforme múltiples países se acercan a temporadas electorales en este 2024.

Otro tipo de ataques aún permanecen más como un mito que como realidad, pero que no se descarta su existencia en el futuro, como la automatización de ataques mediante IA Generativa o la existencia de IA de código abierto que pueda ser utilizada para nuevas formas de ataque.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies