TikTok presenta acciones concretas para la protección de niños, niñas y adolescentes en Brasil
São Paulo, Brasil. TikTok presentó un conjunto de iniciativas dirigidas a la protección de niños, niñas y adolescentes con motivo del Día de Internet Segura 2026, en un evento organizado por SaferNet en alianza con NIC.br este 10 de febrero.
Las medidas fueron expuestas en medio del establecimiento del ECA Digital, el nuevo Estatuto de la Niñez y la Adolescencia Digital (Ley núm. 15.211/2025), que amplía las obligaciones de las plataformas para la protección de menores en el entorno en línea y que entrará en vigor en marzo de 2026.
La ley tendrá un plazo de seis meses para la adaptación de las empresas, imponiendo, entre otras obligaciones, verificación de edad confiable, supervisión parental y eliminación de contenidos nocivos.
Representando a TikTok Brasil, el gerente de Políticas Públicas de la empresa, Gustavo Rodrigues, afirmó que “todos tienen responsabilidad en este enfrentamiento: industria, gobierno y sociedad”. Destacó que la plataforma viene adoptando una lógica de “experiencia adecuada a la edad”, respetando cada etapa del desarrollo, aunque ―aseguró― la mayoría de la base de usuarios en Brasil tiene más de 30 años.
Entre las medidas mencionadas están herramientas de sincronización familiar para ampliar el control de los padres y acciones de capacitación. En 2025, TikTok promovió un seminario de combate a la explotación sexual, capacitando a más de 90 policías de todos los estados brasileños. En 2026, las acciones de concientización continuarán con cuatro famosos influenciadores de la plataforma, dirigidos al público joven.
En Estados Unidos, la plataforma, junto con Meta y YouTube, responderá a una demanda presentada por una joven de 19 años de edad por interfaz y contenido adictivo. En ese sentido, Renata Mieli, coordinadora del CGI.br y asesora especial del Ministerio de Ciencia, Tecnología e Innovación (MCTI), hizo una advertencia.
“Cuando observamos el entorno digital, no podemos conformarnos con la simple autorregulación, que es más una self regulation que una regulación amplia del sector”, afirmó. Para Mieli, Brasil necesita “soluciones propias”, incluso para la verificación de edad, y una discusión sobre la propia arquitectura de las plataformas.
“Ellas [plataformas] necesitan revertir sus ganancias y beneficios en la promoción no sólo de más salud mental y de investigaciones, sino devolver ese dinero al ecosistema público”, enfatizó.
Plataformas bajo presión por fallas de moderación
Los riesgos asociados a entornos digitales con baja moderación también fueron destacados por el Ministerio Público Federal (MPF). La procuradora regional de la República, Fernanda Teixeira Souza Domingos, afirmó a DPL News que existen denuncias formales que involucran a Discord en diversas investigaciones sobre delitos cometidos contra niños, niñas y adolescentes.
La procuradora relacionó la preocupación con la circulación de contenidos extremos en foros cerrados y transmisiones en vivo en Discord, recordando casos recientes de violencia extrema contra animales cometidos por los propios adolescentes, como el caso del perro Orelha, que generó fuerte conmoción pública.
Para Teixeira, la ausencia de mecanismos eficaces de moderación y prevención permite que estos espacios sean utilizados para la práctica y la exhibición de delitos, muchas veces con la participación o el reclutamiento de menores.
“Estos delitos ni siquiera deberían ocurrir. La plataforma necesita tener filtros y mecanismos para impedir que estos delitos sucedan”, afirmó. Añadió que la visión de que las plataformas serían apenas intermediarias ya no puede verse de esa forma frente a la legislación brasileña.
Los números presentados por SaferNet refuerzan el escenario de agravamiento de la violencia digital contra jóvenes. En la apertura del evento, el presidente de la entidad, Thiago Tavares, informó que las solicitudes de ayuda al Helpline relacionadas con la filtración de imágenes íntimas sin consentimiento crecieron 115%, muchas de ellas involucrando contenidos creados por Inteligencia Artificial. Por primera vez, la organización recibió relatos de víctimas de imágenes falsas generadas por IA.
También hubo un aumento del 19% en las denuncias de delitos relacionados con imágenes de abuso y explotación sexual infantil. Los registros de delitos de odio crecieron 54%, con destaque para la misoginia (aumento del 224.9%), la apología de delitos contra la vida (75.4%) y el neonazismo (64.7%). Parte de estos datos integra una investigación de SaferNet sobre el uso delictivo de la Inteligencia Artificial, financiada por el fondo SafeOnline, administrado por Unicef.