Sección 230 no salva a Meta de ser demandada por diseño adictivo, ahora en Massachusetts

El Tribunal Supremo Judicial de Massachusetts, Estados Unidos, permitió que avance la demanda presentada por la fiscal general del estado, Andrea Joy Campbell, contra Meta Platforms, al determinar que podría ser responsable por el diseño de funciones adictivas en Instagram dirigidas a menores de edad.

En el caso titulado Commonwealth v. Meta Platforms Inc., bajo el número de expediente SJC-13747, la Corte concluyó que la inmunidad otorgada por la Sección 230 –que protege a las plataformas en línea de ser demandadas por el contenido generado por usuarios– no aplica cuando las acusaciones se centran en decisiones propias de diseño del producto.

Según el documento, las reclamaciones del estado “no buscan responsabilizar a Meta por contenido de terceros”, sino por sus propias prácticas comerciales y decisiones de diseño.

La demanda sostiene que Meta implementó mecanismos como desplazamiento infinito, reproducción automática de contenido y sistemas de notificaciones con el objetivo de maximizar el tiempo de uso, especialmente entre adolescentes. De acuerdo con el Tribunal, estas características pueden ser evaluadas como parte de una estrategia que “explota las vulnerabilidades psicológicas de los usuarios jóvenes” y que podría constituir prácticas engañosas o injustas.

Recomendamos: Meta, Google y Microsoft toman medidas voluntarias contra el abuso infantil tras vacío legal en la UE

Asimismo, el requerimiento argumenta que la compañía habría minimizado públicamente los riesgos asociados al uso de sus plataformas, pese a contar con evidencia interna sobre sus posibles efectos negativos en la salud mental. Al respecto, el fallo permite avanzar acusaciones bajo leyes de protección al consumidor, al considerar que Meta pudo haber incurrido en declaraciones engañosas sobre la seguridad de sus servicios.

Otro punto relevante de este proceso es que el Tribunal dio vía libre a la teoría de public nuisance (daño público), al aceptar que los efectos de la supuesta adicción digital en menores podrían constituir un problema de salud colectiva. Esto significa que la responsabilidad potencial de Meta puede ser mayor, dado que va más allá del tipo de contenido que los usuarios publican.

Meta, por su parte, defendió que sus funciones forman parte de la publicación y organización de contenido de terceros, por lo que deberían estar protegidas bajo la Sección 230, además de invocar la Primera Enmienda, al argumentar que sus algoritmos, el ordenamiento del feed y las recomendaciones de contenido constituyen una forma de “juicio editorial” protegida como libertad de expresión, por lo que cualquier intento de regular o sancionar estas decisiones equivaldría a intervenir en su discurso.

Sin embargo, el Tribunal consideró que la demanda no se centra en lo que la empresa comunica, sino en sus prácticas de diseño y negocio, es decir, en la conducta de la compañía más que en una expresión protegida.

Si bien este fallo no determina ninguna decisión sobre el caso, establece un precedente respecto a la responsabilidad de Meta en la salud mental de los usuarios que hasta ahora no había sido debatido a profundidad.