A questão da segurança nas redes sociais, especialmente no que diz respeito ao TikTok e Meta, tem gerado intensos debates. Ambas as plataformas têm enfrentado críticas por permitir a circulação de conteúdos prejudiciais, mesmo cientes dos riscos associados a essa prática. O foco em aumentar o engajamento parece ter superado as preocupações com a segurança dos usuários.
TikTok Meta segurança em debate
Denunciantes de dentro das empresas revelaram que tanto o TikTok quanto a Meta, controladora do Facebook e Instagram, adotaram posturas arriscadas em relação ao conteúdo que aparece nos feeds dos usuários. Essas decisões foram motivadas pela necessidade de competir em um mercado cada vez mais acirrado, onde a atenção do usuário se tornou um recurso valioso.
Um engenheiro da Meta compartilhou que a empresa incentivou a inclusão de conteúdo considerado ‘limítrofe’, que abrange desde teorias da conspiração até misoginia, como uma estratégia para rivalizar com o TikTok. A pressão para manter os índices de engajamento altos era tão intensa que a segurança dos usuários parecia ser uma preocupação secundária.
Conteúdo nocivo e suas consequências
Os denunciantes relataram que a Meta, ao lançar o Instagram Reels, não implementou proteções adequadas para evitar a propagação de comentários nocivos. Pesquisas internas indicaram que o Reels apresentava uma quantidade significativamente maior de bullying e discurso de ódio em comparação a outras partes do Instagram. Essa falta de proteção foi uma clara demonstração de que o engajamento estava sendo priorizado em detrimento da segurança dos usuários.
Além disso, um funcionário do TikTok revelou que as diretrizes internas da empresa priorizavam a manutenção de boas relações com figuras políticas, o que resultava em uma resposta lenta a denúncias de conteúdo prejudicial, especialmente quando envolvia crianças. Essa abordagem levanta questões sérias sobre a responsabilidade social das plataformas e o impacto que suas decisões têm sobre a segurança dos jovens usuários.
Impacto do algoritmo na segurança
Os algoritmos que regem essas plataformas são frequentemente descritos como ‘caixas-pretas’, dificultando a avaliação de como o conteúdo é classificado e promovido. Um ex-engenheiro do TikTok destacou que, mesmo com atualizações frequentes do algoritmo, o conteúdo problemático continuava a aparecer, especialmente após os usuários assistirem a vídeos por um tempo. Isso sugere que as plataformas não estão fazendo o suficiente para mitigar os riscos associados ao conteúdo nocivo.
- Conteúdo misógino
- Teorias da conspiração
- Violência e assédio
Reações de usuários e especialistas
Adolescentes que utilizam essas plataformas relataram que as ferramentas disponíveis para evitar conteúdos problemáticos não são eficazes. Um jovem, que se sentiu ‘radicalizado pelo algoritmo’, afirmou que os vídeos que consumia o deixavam irritado e reforçavam visões negativas sobre a sociedade. Essa situação é alarmante e indica que as plataformas precisam repensar suas estratégias de moderação.
Especialistas em segurança, incluindo agentes de polícia antiterrorismo, notaram um aumento na normalização de conteúdos violentos e de ódio nas redes sociais. Essas observações ressaltam a urgência de uma abordagem mais responsável por parte das plataformas, que deve priorizar a segurança dos usuários em vez de apenas buscar maximizar o engajamento.
Considerações finais sobre a segurança nas redes sociais
As revelações sobre a forma como TikTok e Meta lidam com conteúdo nocivo levantam questões sérias sobre a responsabilidade dessas empresas. A pressão para manter os usuários engajados não deve se sobrepor à necessidade de garantir um ambiente seguro. Os usuários, especialmente os mais jovens, merecem uma experiência online que priorize sua segurança e bem-estar.
Para mais informações sobre como as redes sociais estão lidando com questões de segurança, você pode visitar a Organização Mundial da Saúde. E para mais conteúdos, acesse Em Foco Hoje.



