Instagram ha anunciado que comenzará a enviar notificaciones de alerta a los padres cuando detecte que sus hijos buscan de forma reiterada, en un corto periodo de tiempo, términos relacionados con el suicidio o la autolesión. Esta función, que forma parte de las herramientas de supervisión parental, también se ampliará próximamente a ciertas conversaciones con ‘chatbots’ de inteligencia artificial.
La plataforma, propiedad de Meta, ya bloquea las búsquedas vinculadas a contenido sobre suicidio o autolesiones cuando se realizan desde cuentas de adolescentes. En lugar de mostrar resultados, redirige a los menores hacia recursos especializados y líneas de ayuda profesional con el fin de ofrecer apoyo oportuno.

Ahora, la red social sumará una nueva herramienta orientada a los padres o tutores de cuentas de adolescentes, con el objetivo de brindarles información que les permita acompañar y respaldar a sus hijos si atraviesan una situación delicada. Según explicó la compañía en un comunicado, las notificaciones se enviarán cuando se identifique que el menor ha buscado de manera insistente términos asociados al suicidio o la autolesión en un lapso breve.

Aunque recibir una alerta de este tipo puede resultar angustiante, la empresa subrayó que el propósito es facilitar recursos y orientación para que los adultos puedan abordar conversaciones sensibles y ofrecer apoyo adecuado.
Las alertas se activarán cuando el sistema detecte frases que promuevan el suicidio o la autolesión, o que sugieran que el adolescente desea hacerse daño. En esos casos, los avisos llegarán a los padres que estén suscritos a la supervisión de la cuenta, a través de correo electrónico, SMS o mensajes de WhatsApp. Al abrir la notificación, se mostrará un mensaje en pantalla completa que explicará la situación y ofrecerá recomendaciones de expertos para manejar este tipo de escenarios.

La implementación comenzará la próxima semana en Estados Unidos, Reino Unido, Australia y Canadá, y se extenderá a otras regiones hacia finales de año.
Además, Instagram adelantó que lanzará alertas parentales similares para “ciertas experiencias con IA” a finales de este año. En estos casos, se notificará a los padres si un adolescente intenta mantener conversaciones relacionadas con el suicidio o la autolesión con Meta AI. No obstante, la compañía aseguró que su ‘chatbot’ ya está entrenado para responder de manera segura ante este tipo de interacciones.
*Con información de Europa Press
