Meta ha anunciado la implementación de un nuevo sistema de alertas en Instagram dirigido a informar a los padres o tutores cuando sus hijos adolescentes realizan búsquedas repetidas de términos relacionados con el suicidio o las autolesiones en la plataforma. Esta medida, que forma parte de las herramientas de supervisión parental de la red social, comenzará a estar disponible «la próxima semana» para familias en Estados Unidos, Reino Unido, Australia y Canadá, y se irá extendiendo a otras regiones a lo largo del año.
Según el comunicado oficial publicado por la empresa matriz, Meta, el objetivo de esta iniciativa es proporcionar a los padres información que les permita identificar señales de alerta temprana en la actividad de búsqueda de sus hijos adolescentes y, de esta forma, ofrecer apoyo o iniciar conversaciones de acompañamiento cuando sea necesario. Las alertas también vendrán acompañadas de recursos especializados diseñados para ayudar en el abordaje de temas delicados.
La función de alerta se activa únicamente si el adolescente ha intentado buscar repetidamente ciertos tipos de términos en un corto período de tiempo. Entre las búsquedas que podrían activar una notificación se encuentran frases que sugieran que el joven desea hacerse daño, así como términos explícitos como “suicidio” o “autolesión”. La empresa ha explicado que no se trata de alertar por búsquedas puntuales, sino de identificar patrones que puedan reflejar un posible riesgo.
Una vez que se detecta este tipo de actividad, el sistema enviará notificaciones a los padres o tutores por correo electrónico, mensaje de texto o WhatsApp, en función de la información de contacto disponible, además de mostrar una advertencia dentro de la aplicación. Al interactuar con dicha notificación, las familias podrán ver un mensaje a pantalla completa que explica el motivo de la alerta y les ofrecerá, si lo desean, el acceso a una serie de materiales y recursos de expertos para abordar la situación con mayor conocimiento.
Meta subraya que la gran mayoría de adolescentes no realiza este tipo de búsquedas en Instagram, y que la compañía ya cuenta con políticas estrictas para bloquear contenido que promueva o glorifique conductas de autolesión o suicidio. Cuando un usuario intenta acceder a esos temas, la plataforma lo redirige a recursos de ayuda y apoyo, en lugar de mostrar resultados que puedan ser perjudiciales.
La compañía tecnológica también ha señalado que este nuevo sistema de alertas se suma a otras funciones de protección existentes para las Cuentas de Adolescente y a las herramientas de supervisión parental que han venido desarrollándose en los últimos años. Además, Meta ha adelantado que está trabajando en una función adicional de notificaciones parentales basada en ciertas interacciones entre adolescentes y experiencias de inteligencia artificial, que también podrá alertar a las familias si se detectan conversaciones sensibles o preocupantes con sistemas de IA.
Para establecer los criterios que determinan cuándo se debe enviar una alerta, Meta indica que ha analizado datos de comportamiento de búsqueda en Instagram y ha colaborado con expertos de su Grupo Asesor sobre Suicidio y Autolesiones. Este enfoque busca equilibrar la necesidad de informar a los padres con la de evitar enviar notificaciones innecesarias que puedan diluir su utilidad. La empresa reconoce que, en ocasiones, podría generarse una alerta incluso si no existe un motivo real de preocupación, pero asegura que este umbral es un punto de partida prudente para actuar con responsabilidad.
En declaraciones incluidas en el comunicado, expertos consultados resaltan que empoderar a los padres con información puede ser fundamental para identificar situaciones en las que un adolescente podría necesitar apoyo adicional. El enfoque de Meta refleja, según la empresa, un compromiso por ampliar las herramientas de seguridad en la plataforma y acompañar a las familias en la gestión de temas delicados relacionados con la salud mental de los jóvenes.