O Instagram anunciou uma ferramenta que irá notificar responsáveis quando adolescentes tentarem repetidamente pesquisar termos ligados ao suicídio ou à automutilação na plataforma, uma iniciativa que começa a ser implementada em países como Estados Unidos, Reino Unido, Austrália e Canadá e deve ser expandida gradualmente para outras regiões ainda este ano.
Segundo a Meta, empresa controladora da rede social, os alertas — enviados por e-mail, mensagem de texto, WhatsApp ou através do próprio aplicativo — têm como objetivo fornecer aos responsáveis informações que possam ajudar a apoiar jovens que possam estar em risco, complementando ferramentas já existentes que bloqueiam ou redirecionam conteúdos sensíveis.
A novidade surge em meio a intensa pressão global sobre redes sociais para aumentar a segurança de usuários mais jovens, incluindo processos judiciais que acusam plataformas digitais de contribuir para problemas de saúde mental entre adolescentes.
Grupos de prevenção ao suicídio e especialistas em segurança digital, no entanto, afirmam que a medida pode ser insuficiente e até problemática. Segundo críticos, alertar os pais sem oferecer suporte profissional adequado pode causar pânico e não enfrentar questões profundas relacionadas ao design e à forma como conteúdos perigosos circulam nas redes.
Organizações como a Molly Rose Foundation argumentam que a responsabilidade não deve recair apenas sobre as famílias, mas que é necessário que as próprias plataformas adotem políticas mais eficazes para proteger os jovens, incluindo limites mais rígidos à exposição a conteúdos que incentivem ou normalizem comportamentos autodestrutivos.
Responsáveis e educadores também destacam que o sucesso da nova função dependerá não só dos alertas em si, mas também da qualidade das orientações e recursos oferecidos para lidar com o tema de forma sensível e eficaz.
