Alertas parentales en Instagram por búsquedas de riesgo

Meta activa en Instagram alertas parentales por búsquedas de riesgo en cuentas de adolescentes para proteger su salud mental.

|
Autor: Especial
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram
Compartir noticia en twitter
Compartir noticia en facebook
Compartir noticia por whatsapp
Compartir noticia por Telegram

La compañía Meta, propietaria de la red social Instagram, anunció que “a partir de la semana que viene” empezará a enviar notificaciones a los padres si un usuario adolescente intenta buscar repetidamente términos relacionados con el suicidio o la autolesión en la plataforma.

 Este sistema de alertas se activará inicialmente en Estados Unidos, Reino Unido, Australia y Canadá para familias que utilizan las herramientas de supervisión parental de Instagram, y estará disponible en otras regiones “a finales de este año”.

Los avisos se enviarán mediante correo electrónico, SMS, WhatsApp o notificaciones dentro de la propia aplicación, según los datos de contacto que hayan proporcionado los padres.

Al abrir la notificación, los adultos verán un mensaje que explica que el adolescente realizó múltiples búsquedas de términos asociados con el suicidio o la autolesión en un corto período de tiempo. Además, la alerta incluirá recursos diseñados por expertos para que los padres puedan abordar conversaciones delicadas con sus hijos.

Activación y términos que desencadenan alertas

Instagram explicó que las alertas se activarán cuando un adolescente realice varias búsquedas de palabras o frases relacionadas con el suicidio o autolesión dentro de un lapso corto. Los términos que podrían desencadenar una alerta incluyen aquellos que sugieren que un joven podría estar pensando en hacerse daño o buscar información sobre métodos de autolesión o suicidio.

La función se implementará como parte de las herramientas de supervisión parental para cuentas de adolescentes que los padres hayan añadido a través de la configuración de la plataforma.

Complemento a las políticas actuales de seguridad

Instagram ya tiene políticas estrictas contra contenido que promueve o glorifica el suicidio o la autolesión y bloquea resultados de búsqueda relacionados para cuentas de menores de edad, redirigiendo a líneas de ayuda y apoyo cuando corresponde. La nueva función de alertas no reemplaza esas medidas, sino que busca informar a los padres cuando un menor intenta realizar este tipo de búsquedas de forma persistente, con el objetivo de brindar información para que puedan ofrecer apoyo.

La compañía también adelantó que está desarrollando alertas similares relacionadas con interacciones de adolescentes con herramientas de inteligencia artificial en la plataforma, que se activarán cuando se detecten intentos de entablar conversaciones sobre suicidio o autolesión con dichas funciones.

Implementación progresiva en más regiones

La medida se lanzará primero en los países mencionados y, según explicó Meta, se irá extendiendo a otras regiones del mundo a finales de este año. Meta subrayó en su comunicado que estas alertas están diseñadas para ofrecer a los padres información que les permita apoyar a sus hijos adolescentes y se acompañan de recursos especializados que facilitan abordar conversaciones potencialmente difíciles sobre salud mental, autolesión y suicidio.

Con información de Latinus.

Lo más leído

skeleton





skeleton