Instagram y Facebook ocultan temas de suicidio y trastornos alimentarios a adolescentes
Redacción.- Meta anunció una actualización en sus políticas de contenido para ocultar en todas las redes sociales temas delicados como el suicidio, las autolesiones y los trastornos alimentarios.
Actualmente, se impedía ver ese tipo de contenido en secciones como Reels y Explorar. Ahora, se dejarán de mostrar en el Feed y en Historias de los usuarios menores de 18 años de edad, aunque sean compartidos por cuentas que sigan.
Los jóvenes que busquen este tipo de información serán redirigidos a recursos de expertos para proteger su bienestar en línea.
Las cuentas de usuarios adolescentes en Facebook e Instagram experimentarán ajustes automáticos en sus filtros, restringiendo el tipo de publicaciones que visualizan, especialmente aquellas consideradas sensibles o de baja calidad.
Y a pesar de que los usuarios pueden modificar estas configuraciones de privacidad, el ajuste predeterminado será el más restrictivo.
Este movimiento forma parte de una actualización general que tiene lugar en medio de un examen minucioso por parte de reguladores y legisladores sobre la seguridad infantil en las redes sociales.
Consultas con expertos y nuevas herramientas de seguridad
En la elaboración de estas políticas, Meta colaboró con especialistas en desarrollo humano, psicología y salud mental con el fin de identificar qué tipo de contenidos son menos apropiados para los adolescentes.
Herramientas como el “Control de contenidos delicados” en Instagram y “Reducir” en Facebook limitarán el acceso a ciertos contenidos en áreas como Búsqueda y Explorar.
Además, Meta ha trabajado en ajustar la configuración de privacidad recomendada para que los adolescentes revisen periódicamente sus ajustes y utilicen las últimas herramientas disponibles para proteger su privacidad.
Meta comenzará a ocultar resultados relacionados con nuevos términos de búsqueda asociados al suicidio, autolesiones y trastornos alimentarios, como es el caso de la bulimia mientras se guía a los usuarios hacia recursos de ayuda.
En palabras de la Dra. Rachel Rodgers de la Northeastern University, estos cambios constituyen un paso importante en el desarrollo de plataformas sociales adecuadas para la interacción juvenil.
Por otro lado, cuando los posts hagan referencia a estos temas delicados, se compartirán recursos de organizaciones expertas, como la National Alliance on Mental Illness, para ofrecer apoyo a quienes lo necesiten.
Finalmente, Meta fomenta que los adolescentes activen la configuración recomendada, que limitará quién puede compartir su contenido o contactarlos directamente, y ayudará a ocultar comentarios ofensivos.
Esta iniciativa forma parte de un conjunto más amplio de actualizaciones que buscan restringir la visibilidad del contenido inadecuado y permitir una participación en línea que resguarde la integridad y el desarrollo saludable de los jóvenes.
Plataformas de Meta bajo la lupa de las autoridades
Facebook e Instagram, pertenecientes a Meta, son objeto de una creciente atención por parte de autoridades gubernamentales.
El Senado de Estados Unidos convocó a Mark Zuckerberg, director ejecutivo de Meta, para comparecer sobre seguridad infantil el 31 de enero, junto a otros directivos de la industria tecnológica.
La preocupación regulatoria surge como respuesta a una serie de informes que sugieren que los adolescentes están expuestos a material potencialmente perjudicial en sus plataformas.
Mientras que las políticas recién anunciadas por Meta coinciden con iniciativas legislativas globales, como la Ley de Servicios Digitales de la Unión Europea y la Ley de Seguridad en Línea del Reino Unido, que ponen en primer plano la seguridad de los menores en internet.
Esta última ha causado debate por cuestiones de privacidad, con empresas como Signal amenazando con retirarse del mercado británico antes que comprometer la confidencialidad de sus usuarios.