Mundial | Inteligencia vulnerable

Reforma Luis Pablo Segundo y Mario López

El 20 de marzo, ChatGPT se tuvo que “apagar”. Por casi nueve horas, exhibió datos personales y métodos de pago de 1.2 por ciento de sus suscriptores plus.

“En las horas previas a que desconectamos ChatGPT, era posible que algunos usuarios vieran el nombre y apellido, dirección de correo electrónico, dirección de pago de otro usuario activo, los últimos cuatro dígitos de número de tarjeta de crédito y el vencimiento de la tarjeta de crédito, fecha”, comentó OpenAI en su blog.

No habla de un hackeo, sino de una “visibilidad involuntaria de información” por un error de código abierto “que permitía a algunos usuarios ver títulos del historial de chat de otro usuario activo”.

No es algo mínimo, sobre todo si se toma en cuenta que ChatGPT, de acuerdo con César Vázquez, director de Deep Learning para la Región Norte de LLYC, se puede usar para crear gemelos digitales de procesos productivos, campañas de marketing, asistentes para proyectos, consultoría, investigación de mercado, desarrollo web, consumo de redes sociales, etcétera.

“Uno de los principales usos que se le está dando es en el área de marketing, en temas de investigación de audiencias y mercado, para detallar análisis de compra y de consumidores, generación de contenido, enviar correos de forma masiva”, añadió.

Incluso, en el caso de la industria petrolera puede usarse el ChatGPT para ubicar yacimientos, ductos de gas o hidrocarburos, con una respuesta acertada de las fuentes que obtiene de internet, añadió.

“El ChatGPT, como toda herramienta que está en fase de desarrollo, tiene el riesgo de intentos (de ciberataques), pero puede tener puntos de blindaje para que no haya fuga de información.

“Se debe empezar a monitorear como se está usando y sus resultados, pero sobre todo que tipo de brechas de seguridad empieza a mostrar. Se debe dosificar la información que ponemos en esta plataforma”, explicó.

José Antonio Fernández, director de Ingeniería de Sistemas para América Latina y el Caribe de Palo Alto Networks, dijo que a fines de 2022 el chatbot de OpenAI fue utilizado para crear variantes de malware, dejando en claro que es más la vulnerabilidad que la utilidad de la plataforma.

Esto es un indicio para no confiar totalmente en ChatGPT, pues no sería extraño que se den estafas con imágenes autogeneradas para cometer falsificaciones.

“Los ciberdelincuentes han estado explorando la herramienta y sus múltiples funcionalidades y también compartiendo su conocimiento como mafia organizada para encontrar y mejorar sus técnicas y atraer clientes”, sostuvo.

En la actualidad, la Inteligencia Artificial se puede utilizar para identificar patrones en los sistemas informáticos que revelan debilidades en los programas de seguridad, lo que permite a los hackers explotar esas debilidades.

En el caso del phishing, los ciberdelincuentes pueden usar algoritmos de aprendizaje automático para crear y enviar correos electrónicos personalizados y creíbles y más difíciles de detectar y bloquear para los sistemas de seguridad.

Los ataques digitales de fuerza bruta también son muy utilizados, pues resultan más eficientes cuando se utilizan algoritmos de aprendizaje automático para atacar contraseñas y otros tipos de autenticación.

Sin embargo, para hacer frente a los desafíos y la velocidad del panorama de amenazas actual, la Inteligencia Artificial se debe centrar en prevenir ataques y responder lo más rápido posible a las amenazas, expuso la empresa de ciberseguridad.

Tenable, empresa de gestión cibernética, reconoció que si bien el ChatGPT permite encontrar errores de codificación y vulnerabilidades de software, el rendimiento del chatbot puede ser muy impredecible.

Sostuvo que el uso de ChatGPT como asistente en temas de ciberseguridad se debe revisar detenidamente, como mínimo, de forma manual y cuidadosa.

Incluso, apenas el miércoles, ejecutivos de tecnología y principales investigadores, entre ellos Elon Musk, presidente y director general de Tesla, pidieron en una carta pausar por seis o más meses el desarrollo de nuevas herramientas de Inteligencia Artificial, para establecer estándares de seguridad y evitar daños potenciales.

Amenaza potencial

Una encuesta entre mil 500 tomadores de decisiones de tecnologías de información en América del Norte, Reino Unido y Australia expuso la percepción de que el ChatGPT es un riesgo en potencia.

PERCEPCIÓN SOBRE EL RIESGO DEL CHATGPT

(Porcentaje de respuestas)

Amenaza potencial para la seguridad cibernética74%
Es probable que Estados ya lo usen de manera maliciosa71
Crear correos de phishing más creíbles53
En menos de un año habrá un ciberataque exitoso51
Hackers pueden mejorar conocimientos técnicos49
Difundir información errónea49
Crearía malwares totalmente nuevos48
Ayudaría a mejorar ataques existentes36

Fuente: BlackBerry 2023

iWebView

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies