Los hackers pueden acceder a los chats de ChatGPT o Copilot, aunque estén cifrados

Hipertextual-Rubén Chicharro

Los chatbots impulsados por IA se han vuelto una herramienta imprescindible para muchos usuarios, quienes incluso llegan a realizar a modelos como ChatGPT o Copilot consultas personales o de carácter sensible, pensando que, al estar cifrado de extremo a extremo, nadie puede leer sus conversaciones. Pero una investigación demuestra que estos no son tan seguros como parecen y que, incluso, los hackers pueden acceder a estos chats con una muy buena precisión.

Según ha descubierto Offensive AI Lab, los hackers pueden leer estas conversaciones mediante un ataque de canal lateral, que consiste en recopilar información gracias a la implementación física de un sistema, incluyendo datos del consumo energético, el tiempo que requiere el modelo en procesar los datos o, incluso, la radiación electromagnética que se produce durante un periodo determinado. Después, esta información se procesa a través de una IA diseñada específicamente para ello, quien, de media, puede descifrar las conversaciones del 55 % de las respuestas capturadas de ChatGPT o Copilot. Un 29 % de las veces se revelan respuestas con una precisión total de las palabras.

Leer más.