Meta, Google y Microsoft toman medidas voluntarias contra el abuso infantil tras vacío legal en la UE

Snapchat, Meta (propietaria de Instagram y Facebook), Google (propietaria de YouTube) y Microsoft anunciaron que continuarán aplicando medidas voluntarias para detectar, eliminar y reportar material de abuso infantil con contenido sexual (CSAM), pese a la expiración del marco legal que respaldaba estas prácticas en la Unión Europea.

La decisión se produce tras el vencimiento de la derogación de la Directiva ePrivacy el pasado 3 de abril, una excepción vigente desde 2021 que permitía a las plataformas escanear comunicaciones privadas con fines de protección contra el abuso infantil.

En un comunicado conjunto, las empresas advirtieron que la expiración de esta derogación “deja a los niños menos protegidos frente a uno de los daños más atroces”, al eliminar la base jurídica que permitía detectar contenido ilegal mediante tecnologías como el hash matching, un mecanismo ampliamente utilizado por la industria que permite identificar material previamente catalogado como abusivo sin necesidad de acceder directamente al contenido de los mensajes.

Te puede interesar: ¿Las redes sociales son la causa de que los jóvenes sean menos felices que hace 15 años?

La Directiva ePrivacy formaba parte de un régimen temporal adoptado por la Unión Europea para equilibrar la privacidad de las comunicaciones con la lucha contra el abuso infantil en línea. Sin embargo, las instituciones europeas no lograron acordar a tiempo una extensión o un nuevo marco normativo permanente, pese a que el Parlamento Europeo había propuesto prolongar estas medidas hasta agosto de 2027 mientras se negociaba una solución definitiva.

La falta de consenso ha generado un vacío legal que, en teoría, impide a las plataformas realizar escaneos proactivos en comunicaciones privadas sin exponerse a posibles infracciones de las normas de privacidad, pues de acuerdo con autoridades europeas, este tipo de monitoreo ya no está permitido bajo la legislación vigente, lo que podría dificultar la detección y prevención de delitos.

No obstante, Meta, Google, Microsoft y Snapchat reiteraron su compromiso de continuar con acciones voluntarias en tanto se define un nuevo marco regulatorio, y urgieron a las instituciones europeas a alcanzar un acuerdo “de manera inmediata”.

El pronunciamiento también cuenta con el respaldo de cerca de 250 organizaciones de protección contra el abuso infantil, las cuales alertan sobre el impacto global que podría tener la reducción de estas capacidades de detección.