Documentos judiciales presentados en una demanda contra Meta afirman que la empresa no informó a nadie sobre los riesgos que corrían los usuarios jóvenes en la plataforma

Comparte

Por Joana Campos Gateway Hispanic 

Los documentos judiciales presentados en una demanda contra Meta alegan que la empresa no informó a nadie sobre los riesgos que corrían los usuarios jóvenes en la plataforma y tuvo una actitud arrogante hacia los adultos que se aprovechaban de los menores.

Las acusaciones agregan que Meta decidió no tomar medidas para aumentar la seguridad de los usuarios jóvenes, según Time.

El escrito, que contiene las demandas contra Meta, se presentó en el Distrito Norte de California. Afirmaba que Meta sabía que sus productos empeoraban la salud mental de los adolescentes, mientras que el contenido sobre trastornos alimentarios, suicidio y abuso sexual infantil se encontraba con frecuencia, pero supuestamente rara vez se retiraba.

En el informe, la ex jefa de seguridad y bienestar de Instagram, Vaishnavi Jayakumar, dijo que Meta , a la que se unió en 2020, tenía una política laxa en términos de «tráfico de personas con fines sexuales».

Según el informe, Meta era consciente de que millones de adultos desconocidos contactaban con menores en sus sitios; que sus productos agravaban problemas de salud mental en adolescentes; y que el contenido relacionado con trastornos alimentarios, suicidio y abuso sexual infantil era frecuentemente detectado, aunque rara vez eliminado.

“Podrías incurrir en 16 infracciones por prostitución y solicitación sexual, y en la 17.ª infracción, tu cuenta sería suspendida”, dijo Jayakumar, y agregó: “según cualquier medición en la industria, [era] un umbral de sanción muy, muy alto”.

Meta nunca les dijo a los padres, al público o a los Distritos que no elimina cuentas que han participado más de quince veces en tráfico sexual”, escribieron los demandantes en la presentación judicial.

“Meta ha diseñado productos y plataformas de redes sociales que sabe que son adictivos para los niños, y sabe que esas adicciones conducen a una serie de graves problemas de salud mental”, dijo Previn Warren, abogado de los demandantes en el caso.

«Los empleados de Meta propusieron múltiples formas de mitigar estos daños, según el informe, pero fueron bloqueados repetidamente por ejecutivos que temían que las nuevas características de seguridad dificultaran la implicación de los adolescentes o el crecimiento de los usuarios.»

“Al igual que con el tabaco, este es un caso de productos peligrosos que se comercializaron para menores. Lo hicieron de todos modos, porque un mayor consumo significaba mayores ganancias para la empresa”, dijo.

La demanda, que incluye a más de 1.800 demandantes, dice que las empresas matrices de Instagram, TikTok, Snapchat y YouTube «persiguieron implacablemente una estrategia de crecimiento a toda costa, ignorando imprudentemente el impacto de sus productos en la salud mental y física de los niños».

Aunque Time señaló que Meta ha realizado algunos cambios, dijo que el informe incluye el testimonio de Brian Boland, ex vicepresidente de asociaciones de Meta, quien se fue en 2020 después de 11 años.

“Mi sensación, tanto entonces como ahora, es que no les importa realmente la seguridad del usuario”, dijo. “No es algo a lo que dediquen mucho tiempo. No es algo en lo que piensen. Y realmente creo que no les importa”.

Meta no respondió a la solicitud de comentarios de Time.

La demanda señaló que cinco años antes de que Instagram declarara privadas las cuentas de adolescentes para evitar que los adultos contactaran a usuarios menores de edad, Meta consideró qué hacer al respecto. En 2020, determinó que podría perder 1,5 millones de adolescentes activos al mes al año, y un empleado, citado por la agencia, afirmó que tomar medidas «probablemente genere un problema potencialmente insostenible de interacción y crecimiento».

https://x.com/LieffCabraser/status/1992367765244813756?s=20

Los demandantes en el litigio nacional de daños en redes sociales adolescentes de Meta presentaron un nuevo escrito el 21/11/25 y la revista Time ha publicado un extenso artículo sobre los daños alegados en el caso. Aquí tienes el enlace al informe https://lieffcabraser.com/pdf/2025-11-21-Brief-dckt-2480_0.pdf (1/2)

“Meta sabía que colocar a los adolescentes en un entorno privado predeterminado habría eliminado 5,4 millones de interacciones no deseadas al día”, afirma la demanda.

La demanda agregó que, si bien las herramientas de inteligencia artificial de Meta detectaron contenido dañino, como autolesiones, abuso sexual infantil o trastornos alimentarios, la mayor parte del contenido nunca fue eliminado.

Este artículo apareció originalmente en The Western Journal.

Artículo original de The Gateway Pundit.

Comparte
Subscribe
Notify of
guest
0 Comentarios
Más antiguos
Recientes
Inline Feedbacks
Ver todos los comentarios