Francia: Familias demandan a Tiktok por muerte de adolescentes

0

Stephanie Mistre, madre de una de las víctimas, aseguró que a través de la plataforma se ha normalizado la depresión y la autolesión. Foto Internet.

Francia. Familias demandan a Tiktok por muerte de adolescentes

VEA / Yonaski Moreno

Siete (7) familias han introducido una demanda contra TikTok en Francia, señalando a la plataforma de no moderar el contenido dañino, exponiendo a niñas, niños y adolescentes a material que pone en riesgo sus vidas. Entre los demandantes se encuentran las familias de dos (2) jóvenes que perdieron la vida.

Las familias, representadas por la abogada Laure Boutron-Marmion, alegan que el algoritmo de TikTok está diseñado para atrapar a usuarios vulnerables en ciclos de desesperación, por lucro, por lo que piden ser indemnizadas, reseña nota publicada por AP.

De acuerdo a Boutron-Marmion, el caso se basa en «pruebas extensas» y la compañía «ya no puede esconderse detrás de la afirmación de que no es su responsabilidad, porque ellos no crean el contenido».

Asimismo, la abogada expuso que la versión china de TikTok, denominada Douyin, presenta controles de contenido mucho más estrictos para los usuarios jóvenes, incluyendo un «modo juvenil» obligatorio para usuarios menores de 14 años, que restringe el tiempo de pantalla a 40 minutos al día y ofrece solo contenido aprobado.

El trabajo publicado por AP incluye el testimonio de Stephanie Mistre, quien expuso que su lucha contra Tiktok inició en el año 2021, cuando encontró sin vida a su hija de 15 años. De acuerdo a Mistre, cuando investigó el teléfono de su hija después de su muerte, encontró videos que promovían métodos de suicidio, tutoriales y comentarios que alentaban a los usuarios a cometer suicidio.

«Fue un lavado de cerebro», denunció. Añadió: «Normalizaron la depresión y la autolesión, convirtiéndola en un retorcido sentido de pertenencia».

Tiktok ha respondido a la demanda asegurando que sus directrices prohíben cualquier promoción del suicidio y que cuenta con un equipo de 40 mil profesionales de confianza y seguridad en todo el mundo para eliminar publicaciones peligrosas. Asimismo, la compañía señaló que recomienda servicios de salud mental a los usuarios que buscan videos relacionados con el suicidio, resaltó el medio estadounidense.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

error: Este contenido está protegido !!