TikTok reconoce efectos negativos en adolescentes
Los directivos y empleados de TikTok eran conscientes de que sus funciones fomentaban el uso compulsivo de la aplicación, así como los correspondientes efectos negativos en la salud mental, según pr. La emisora ha revisado documentos no divulgados de la demanda presentada por la Oficina del Fiscal General de Kentucky, según lo publicado por Kentucky Public Radio. Más de una docena de estados demandaron a TikTok hace días, acusándolo de «afirmar falsamente que es seguro para los jóvenes.» El fiscal general de Kentucky, Russell Coleman, dijo que la aplicación estaba «diseñada específicamente para ser una máquina adictiva, dirigida a niños que todavía están desarrollando un autocontrol adecuado».
La mayoría de los documentos presentados para las demandas tenían información redactada, pero los de Kentucky tenían la redacción incorrecta. Aparentemente, la propia investigación de TikTok encontró que «el uso compulsivo se correlaciona con una serie de efectos negativos para la salud mental, como la pérdida de habilidades analíticas, formación de memoria, pensamiento contextual, profundidad de la conversación, empatía y aumento de la ansiedad». Los directivos de TikTok también sabían que el uso compulsivo podía interferir con el sueño, las responsabilidades laborales y escolares, e incluso «conectarse con sus seres queridos».
Aparentemente también sabían que la herramienta de gestión del tiempo de la aplicación apenas ayudaba a mantener a los usuarios jóvenes alejados de la aplicación. Si bien la herramienta establece el límite predeterminado para el uso de la aplicación en 60 minutos por día, los adolescentes aún pasaron 107 minutos en la aplicación incluso cuando estaba activada. Esto es sólo 1,5 minutos menos que el uso promedio de 108,5 minutos por día antes del lanzamiento de la herramienta. Basándose en documentos internos, TikTok basó el éxito de la herramienta en cómo «mejoraba la confianza del público en la plataforma TikTok a través de la cobertura de los medios». La empresa sabía que la herramienta no sería efectiva, y un documento decía que «[l]os adultos no tienen la función ejecutiva para controlar el tiempo que pasan frente a la pantalla, mientras que los adultos jóvenes sí la tienen». Otro artículo decía que «en la mayoría de las métricas de participación, cuanto más joven es el usuario, mejor es el rendimiento».
Además, TikTok sabe que existen «burbujas de filtro» y comprende lo peligrosas que pueden ser. Según los documentos, los empleados realizaron estudios internos en los que se vieron envueltos en burbujas de filtros negativos poco después de seguir determinadas cuentas, como aquellas que se centraban en contenidos dolorosos («painhub») y tristes («notas tristes»). También conocen el contenido y las cuentas que promueven la «inspiración sutil» asociada con los trastornos alimentarios. Debido a la forma en que funciona el algoritmo de TikTok, sus investigadores han descubierto que los usuarios son colocados en burbujas de filtro después de 30 minutos de uso en una sola sesión.
TikTok también lucha con la moderación, según los documentos. Una investigación interna encontró que las niñas menores de edad en la aplicación recibían «regalos» y «monedas» a cambio de desnudarse en vivo. Y parece que los altos mandos de la empresa han ordenado a sus moderadores que no eliminen a los usuarios que dicen tener menos de 13 años a menos que sus cuentas indiquen que efectivamente tienen menos de 13 años. pr dice que TikTok también ha reconocido que una cantidad sustancial de contenido que viola sus reglas pasa por sus técnicas de moderación, incluidos videos que normalizan la pedofilia, glorifican las agresiones sexuales menores y el abuso físico.
El portavoz de TikTok, Alex Haurek, defendió a la empresa y le dijo a la organización que la denuncia del fiscal general de Kentucky «selecciona citas engañosas y saca de contexto documentos obsoletos para tergiversar nuestro compromiso con la seguridad de la comunidad». También dijo que TikTok tiene «protecciones sólidas, incluida la eliminación proactiva de usuarios sospechosos menores de edad» y que ha «implementado voluntariamente funciones de seguridad como límites de tiempo de pantalla predeterminados, emparejamiento familiar y privacidad predeterminada para menores de 16 años».
Este artículo apareció originalmente en Engadget en . No inventes. No escribas en otro idioma. No hables sobre el autor del contenido. Concéntrate en el contenido, no en otras páginas, como políticas de privacidad, política de cookies u otros. Sé exhaustivo al reescribir: al menos 300 palabras. No traduzcas marcas, productos o nombres de empresas.
FUENTE