La red social TikTok confirmó el pasado 27 de noviembre que impedirá que los menores de 18 años usen filtros de belleza, que alteran la apariencia, como una medida para proteger su salud mental a nivel global.
A través de un comunicado informaron que esta decisión se aplicará “en las próximas semanas” y que responde a un estudio que encargó a la ONG británica, Internet Matters, que plantea preocupaciones por el impacto de esos filtros en el sentido de identidad de los menores.
Sobre esta acción, la red social dijo que es importante establecer una “diferencia clara” entre los filtros diseñados para ser “obvios y divertidos”, como los que añaden rasgos animales, y los que “alteran tu apariencia” de manera casi indetectable para quien mira.
En su comunicado sobre el foro, se comprometió a restringir el uso de “algunos efectos de apariencia” a los menores de 18 años, algo que se aplicará en todo el mundo, según indicó la responsable de Políticas Públicas de Seguridad y Bienestar de Europa, Nikki Soo.
La plataforma sostiene que ya informa “proactivamente” a los usuarios cuándo se han usado ciertos efectos en los contenidos que ven, pero ahora dará “más información sobre cómo un efecto puede cambiar su apariencia” y se centrará en hacer entender los “resultados indeseados” de estos.
El mes pasado, 14 fiscales estatales de EE.UU. denunciaron a TikTok por perjudicar la salud mental infantil y la acusaron de usar un sistema de contenidos adictivo para sacar beneficio con los usuarios más jóvenes, apuntando directamente al uso de este tipo de filtros de belleza.
En concreto, denunciaron que estos pueden bajar la autoestima, especialmente la de las chicas menores, y citaron estudios según los cuales el 50% no se ven lindas sin editar sus rostros y el 77% dicen que intentan cambiar u ocultar alguna parte de su cuerpo con esa herramienta.
TikTok reveló en su nota que tiene 175 millones de usuarios mensuales en Europa y que elimina 6 millones de cuentas cada mes creadas por menores de 13 (su edad mínima), por lo que colabora con ONG, legisladores y reguladores en reforzar sus barreras, y baraja ayudarse de la tecnología “machine learning”.
También anunció que en las próximas semanas ofrecerá a sus usuarios en 13 países europeos líneas telefónicas de ayuda locales con expertos para el momento en que “reporten contenidos en la app sobre suicidio, autolesión y acoso”, que la plataforma ya investiga y elimina si detecta que se han violado sus políticas.