La nueva frontera regulatoria: gobiernos avanzan para restringir redes sociales a menores

La preocupación por el ciberacoso y la salud mental ha llevado a varios gobiernos a endurecer las restricciones de acceso a redes sociales para menores de edad. Bajo la premisa de que el uso compulsivo fomenta la depresión y la ansiedad, diversos gobiernos impulsan leyes que obligan a las plataformas a verificar la edad de sus usuarios. Estas medidas van desde controles parentales estrictos hasta la prohibición total de cuentas para menores de 14 ó 16 años, dependiendo del país.

Australia, junto con Francia, España y el Reino Unido, han decidido tomar las riendas y dejar de confiar en que las redes sociales se vigilen solas. En el caso de Australia, la nueva legislación establece multas de hasta 50 millones de dólares australianos para las plataformas que no tomen medidas efectivas para impedir el acceso de menores.

En Francia, el gobierno ha impulsado una ley que prohíbe el acceso a redes sociales para menores de 15 años, una iniciativa respaldada por el presidente Emmanuel Macron para combatir el uso excesivo de pantallas. Por su parte, España planea elevar esta restricción hasta los 16 años, incluyendo medidas de responsabilidad legal y penal para los directivos de las plataformas que permitan discursos de odio. Mientras que Reino Unido ha iniciado una consulta pública nacional para evaluar prohibiciones similares.

No obstante, uno de los principales problemas es que, para confirmar la edad, estas plataformas podrían exigir documentos oficiales o datos biométricos, lo que pone en riesgo la privacidad de las personas.

Países como Dinamarca, Alemania y Eslovenia debaten actualmente fijar la edad mínima en 15 ó 16 años. Mientras Dinamarca apunta a iniciar restricciones en 2026, Alemania mantiene dudas sobre la viabilidad de una prohibición total debido a desacuerdos en su coalición de gobierno.

El endurecimiento de las normas también ha llegado a Asia, donde países como Indonesia ya proyectan prohibiciones para menores de 16 años en servicios como Instagram y TikTok. Asimismo, el gobierno de Malasia ratificó su postura en noviembre de 2025, avanzando en una legislación que entrará en vigor este 2026 para restringir el acceso a redes sociales en este mismo rango de edad.

La estrategia de autorregulación de TikTok ante el debate regulatorio

Ante este panorama, plataformas como TikTok apuestan por medidas de moderación interna y controles parentales como eje central de su estrategia. La empresa sostiene que su servicio está diseñado para mayores de 13 años y no permite cuentas por debajo de esa edad. Afirma que establecer límites claros es parte de la responsabilidad de la industria y reconoce que, si bien la verificación inicial puede superarse incorrectamente en algunos casos, implementa revisiones adicionales que permiten eliminar cerca de 6 millones de cuentas de menores cada mes a nivel global.

TikTok implementa más de 50 configuraciones automáticas de seguridad diferenciadas por edad: para usuarios de entre 13 y 16 años restringe mensajes directos, recomendaciones en el feed “Para Ti” y comentarios de desconocidos. Para menores de 18, las cuentas son privadas por defecto, con un límite de 60 minutos de pantalla y sin acceso a transmisiones en vivo.

Asimismo, destacan las herramientas de supervisión familiar que permiten a padres o tutores gestionar el tiempo de uso, bloquear la aplicación en horarios determinados, revisar seguidores y filtrar contenidos mediante la función de “sincronización familiar”.

La empresa asevera que la plataforma es un espacio de descubrimiento y aprendizaje, donde los adolescentes acceden a contenidos de ciencia, educación, arte o cultura creados por especialistas, museos y docentes. En materia de seguridad, la compañía afirma que todo el contenido es moderado y que el 98.5% del material que infringe sus políticas es eliminado de manera proactiva, antes de recibir reportes de los usuarios.

Avances en América

A la par de estos esfuerzos corporativos, el entorno legal evoluciona rápidamente. En Estados Unidos, la regulación avanza a nivel estatal: Utah fue pionero en 2023 con leyes de acceso controlado, mientras que Florida aprobó en 2024 la ley HB 3, que prohíbe cuentas a menores de 14 años y exige consentimiento parental para jóvenes de 14 y 15 años; medidas que estados como Arkansas, Ohio y Texas ya analizan replicar.

En América Latina, el enfoque se centra en la protección de datos y responsabilidad digital. Brasil destaca con la aprobación del ECA Digital (Ley N.° 15.211), que entrará en vigor en marzo de 2026 bajo la supervisión de la Agencia Nacional de Protección de Datos. Esta norma impone la “privacidad por diseño”, prohíbe la autodeclaración de edad y restringe tanto la publicidad dirigida a menores como las loot boxes en videojuegos.

Por su parte, México registra avances locales significativos ante la falta de una prohibición nacional. En la Ciudad de México se presentó una iniciativa de Ley General para establecer responsabilidades compartidas entre tutores, escuelas y plataformas. Simultáneamente, el congreso de Nuevo León aprobó una propuesta para restringir redes sociales a menores de 15 años y obligar a los concesionarios a implementar mecanismos de control parental.

“Prohibir sólo incrementa el riesgo”

El enfoque prohibitivo que predomina en las nuevas agendas internacionales es cuestionado también por especialistas que ven en estas normas una respuesta superficial ante fenómenos estructurales de violencia y consumo digital.

Angélica Contreras, consultora en comunicación con perspectiva de género y derechos digitales, colaboradora de la Asociación Civil Cultivando Género en Aguascalientes y exintegrante del Consejo Asesor de Seguridad de TikTok, advierte que las iniciativas que buscan restringir o prohibir el acceso de menores a redes sociales no atacan el problema de fondo. “Las iniciativas que buscan restringir desde la prohibición son una curita. Están tapando parcialmente el problema, pero no abordan la raíz”, comentó a DPL News.

Aunque reconoce riesgos como el ciberacoso y la salud mental, subraya que cualquier política debe priorizar el interés superior de la niñez y la Observación General 25 del Comité de los Derechos del Niño, la cual insta a los Estados a garantizar un acceso seguro mediante educación y acompañamiento.

Para la especialista, “prohibir sólo incrementa el riesgo”, ya que el miedo a la represalia impide que los menores denuncien situaciones de peligro. La clave reside en combinar regulación con formación digital, tanto para jóvenes como para adultos, quienes a menudo carecen de habilidades para orientar. Contreras concluye que, al estar los mundos físico y digital profundamente conectados, la solución no es la restricción, sino el acompañamiento y el desarrollo de habilidades para un uso responsable y no violento.

En conclusión, la seguridad digital de la infancia no depende de una sola solución. El éxito de estos nuevos marcos legales y corporativos no se medirá por cuántas cuentas se eliminen, sino por la capacidad de construir un ecosistema digital donde la innovación y el interés superior de la niñez coexistan de manera segura.