Meta anunció que, a partir de la próxima semana, Instagram comenzará a notificar a los padres cuando sus hijos adolescentes realicen búsquedas repetidas de términos vinculados a la autolesión. Esta función se activará inicialmente para usuarios de las herramientas de supervisión parental en Estados Unidos, Reino Unido, Australia y Canadá, con planes de expansión global para finales de 2026.
Las alertas se enviarán a través de correo electrónico, SMS, WhatsApp o notificaciones dentro de la aplicación. Al abrir el aviso, los padres verán un mensaje explicativo indicando que el menor ha intentado buscar palabras sensibles en un periodo corto de tiempo. Además, la plataforma proporcionará recursos especializados de expertos para facilitar conversaciones sobre salud mental en el entorno familiar.
Filtros de contenido y seguridad en la IA
Meta mantiene políticas restrictivas contra la promoción de autolesiones, aunque permite que los usuarios compartan sus experiencias personales como parte de un proceso de apoyo. Sin embargo, la compañía asegura que este tipo de contenido se oculta de forma automática a los menores de edad.
La supervisión también se extenderá a las interacciones con la Inteligencia Artificial (IA). Según el comunicado oficial de la tecnológica:
-
La IA de Meta ya está entrenada para responder de forma segura y ofrecer recursos de apoyo.
-
Se están desarrollando alertas parentales específicas para cuando los adolescentes intenten entablar conversaciones sobre autolesión con el asistente virtual.
-
Los detalles técnicos sobre esta integración se compartirán en los próximos meses.
Contexto legal y responsabilidad de la industria
El lanzamiento de estas funciones ocurre en un momento de alta presión judicial contra Meta. La empresa enfrenta múltiples demandas que la acusan de diseñar algoritmos que fomentan la adicción y afectan la salud mental de los jóvenes.
Recientemente, Mark Zuckerberg, CEO de Meta, testificó ante el Tribunal Superior de Los Ángeles. Durante su comparecencia, Zuckerberg reiteró que la responsabilidad principal de verificar la edad de los usuarios y garantizar su seguridad inicial debería recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, citando directamente a Apple y Google.
Esta actualización en las herramientas de supervisión busca mitigar los riesgos asociados al uso de redes sociales en edades vulnerables, proporcionando una capa de seguridad proactiva ante patrones de comportamiento de riesgo detectados por los sistemas de moderación de Instagram.

Discussion about this post