Instagram: 19% de adolescentes relatam ver nudez não desejada na plataforma
Uma pesquisa interna da Meta, proprietária do Instagram, revelou que 19% dos usuários com idades entre 13 e 15 anos afirmaram ter visto nudez ou imagens sexuais na plataforma sem consentimento. Este dado alarmante surge em meio a um processo judicial em andamento na Califórnia, nos Estados Unidos, onde a empresa enfrenta acusações de prejudicar a saúde mental de jovens usuários.
As informações foram divulgadas na sexta-feira (20) e incluem trechos de um depoimento do chefe do Instagram, Adam Mosseri, datado de março de 2025. Mosseri, no entanto, ressaltou que a empresa não divulga resultados gerais de pesquisas e classificou os dados auto-relatados como “notoriamente problemáticos”. A pesquisa em questão foi realizada em 2021, segundo Andy Stone, porta-voz da Meta.
A Meta tem sido alvo de críticas e ações legais globais, que alegam que seus produtos, incluindo Facebook e Instagram, causam danos aos jovens. Milhares de processos nos EUA acusam a empresa de projetar plataformas viciantes e de contribuir para uma crise de saúde mental entre os adolescentes. A estatística sobre conteúdo explícito, conforme explicado por Stone, originou-se de uma pesquisa com usuários sobre suas experiências na plataforma, e não de uma análise direta das publicações. A origem das informações foi reportada pela Reuters.
Investigação interna e alegações contra a Meta
A divulgação desses dados coincide com um período de intensa pressão sobre a Meta em relação à segurança de seus usuários mais jovens. A empresa já enfrenta um escrutínio significativo por parte de legisladores e organizações de defesa do consumidor, que buscam maior transparência e responsabilização pelas práticas de suas plataformas. As alegações centrais giram em torno do design de algoritmos que priorizam o engajamento a todo custo, potencialmente expondo adolescentes a conteúdos prejudiciais.
O depoimento de Adam Mosseri, chefe do Instagram, em março de 2025, traz à tona a complexidade em medir e mitigar a exposição a conteúdo indesejado. Ele destacou a dificuldade em analisar mensagens privadas, que são um vetor significativo para a disseminação de imagens explícitas. Mosseri argumentou que a empresa precisa equilibrar a segurança dos usuários com o direito à privacidade, o que dificulta a intervenção direta em conversas privadas.
A pesquisa de 2021, cujos resultados foram recentemente trazidos a público, indica que 19% dos adolescentes entre 13 e 15 anos que usam o Instagram relataram ter visto nudez ou conteúdo sexual que não desejavam. Essa porcentagem representa quase um em cada cinco jovens nessa faixa etária, um número que levanta sérias preocupações sobre a eficácia das medidas de moderação de conteúdo da plataforma.
Conteúdo explícito e outras exposições preocupantes no Instagram
Além da nudez e do conteúdo sexual explícito, a pesquisa revelou outros dados preocupantes. Cerca de 8% dos usuários na mesma faixa etária (13 a 15 anos) afirmaram ter visto “alguém se machucar ou ameaçar fazer isso no Instagram”. Esse tipo de conteúdo pode ser igualmente prejudicial, expondo jovens a atos de violência, automutilação ou discursos de ódio, o que agrava o debate sobre a responsabilidade da plataforma em proteger seus usuários mais vulneráveis.
A Meta tem se defendido das acusações, afirmando estar comprometida em melhorar a segurança e a experiência de seus usuários. Andy Stone, porta-voz da empresa, declarou que a estatística sobre imagens explícitas não provém de uma análise de publicações, mas sim de relatos dos próprios usuários. Essa distinção é importante, pois sugere que a plataforma pode não ter visibilidade completa sobre todo o conteúdo compartilhado, especialmente em canais privados.
A empresa também anunciou medidas para reforçar a proteção de adolescentes. No final de 2025, a Meta planeja remover imagens e vídeos que contenham nudez ou atividade sexual explícita, incluindo aqueles gerados por inteligência artificial, com exceções para fins médicos e educacionais. “Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar”, afirmou Stone, em resposta às preocupações levantadas.
O papel das mensagens privadas na disseminação de conteúdo
Um ponto crucial levantado por Adam Mosseri em seu depoimento diz respeito à forma como o conteúdo explícito é compartilhado. Ele indicou que a maioria dessas imagens é enviada por meio de mensagens privadas entre usuários. Essa modalidade de comunicação representa um desafio significativo para a moderação de conteúdo, pois envolve um nível de privacidade que a Meta precisa respeitar.
“Muitas pessoas não querem que a gente leia suas mensagens”, disse Mosseri, explicando a complexidade de intervir nesse espaço. A empresa se encontra em um dilema entre proteger os jovens de conteúdos nocivos e garantir a privacidade das conversas dos usuários. A análise de mensagens privadas, embora tecnicamente possível, esbarra em questões éticas e de confiança, podendo alienar parte da base de usuários.
Essa realidade sublinha a importância de estratégias de prevenção e educação, além da moderação técnica. Ensinar os jovens a identificar e denunciar conteúdo impróprio, bem como a configurar suas contas para maior privacidade, torna-se fundamental. A responsabilidade, portanto, não recai apenas sobre a plataforma, mas também sobre pais, educadores e os próprios adolescentes.
O que muda com as novas políticas de remoção de conteúdo
A promessa da Meta de remover conteúdo com nudez e atividade sexual explícita, incluindo material gerado por IA, a partir do final de 2025, representa um passo importante na direção de um ambiente online mais seguro. Essa medida, se efetivamente implementada, pode reduzir significativamente a exposição de menores a material inadequado.
A inclusão de conteúdo gerado por IA é particularmente relevante, dada a crescente sofisticação dessas ferramentas. A capacidade de criar imagens realistas de nudez ou situações sexuais de forma artificial abre novas frentes de preocupação, e a antecipação da Meta em abordar essa questão é vista como um avanço. No entanto, a eficácia dessa política dependerá da capacidade da empresa em identificar e remover tal conteúdo de forma rápida e precisa.
As exceções para conteúdo médico e educacional são compreensíveis e necessárias, mas a definição clara desses limites será crucial para evitar brechas. A empresa precisará de diretrizes robustas e transparentes para garantir que a remoção de conteúdo não afete indevidamente materiais legítimos e informativos.
Desafios na moderação de conteúdo e a saúde mental dos jovens
A exposição a nudez e violência online pode ter impactos profundos na saúde mental de adolescentes. Estudos têm associado o uso excessivo de redes sociais a problemas como ansiedade, depressão, baixa autoestima e distorção da imagem corporal. O conteúdo explícito, em particular, pode ser perturbador e traumático para jovens em fase de desenvolvimento.
A dificuldade da Meta em controlar o fluxo de conteúdo impróprio, especialmente em mensagens privadas, levanta questões sobre a viabilidade de suas promessas. A empresa depende de uma combinação de tecnologia de inteligência artificial e denúncias de usuários para identificar e remover conteúdo que viola suas políticas. No entanto, a escala massiva de interações em plataformas como o Instagram torna essa tarefa hercúlea.
O fato de a pesquisa ter sido realizada em 2021 e os dados só agora virem à tona, em meio a um processo judicial, também levanta dúvidas sobre a agilidade da empresa em responder a problemas emergentes. A demora em divulgar e agir sobre descobertas internas pode ser interpretada como uma falta de prioridade em relação à segurança dos jovens usuários.
O que dizem os processos e as autoridades sobre as práticas da Meta
Os processos judiciais contra a Meta alegam que a empresa projeta deliberadamente suas plataformas para serem viciantes, explorando vulnerabilidades psicológicas de usuários, especialmente os mais jovens. A busca incessante por engajamento, impulsionada por algoritmos que personalizam o feed com base no comportamento do usuário, é apontada como um fator chave na disseminação de conteúdo prejudicial.
Líderes globais e órgãos reguladores têm intensificado o escrutínio sobre as práticas de coleta de dados e o impacto social das grandes empresas de tecnologia. As leis de proteção de dados, como o GDPR na Europa e outras legislações em desenvolvimento no Brasil e em outros países, buscam impor limites mais rígidos ao modo como as empresas operam e como lidam com informações de menores.
A investigação em andamento na Califórnia é apenas um dos muitos fronts legais e regulatórios que a Meta enfrenta. As decisões tomadas nesses casos podem ter implicações significativas para o futuro das redes sociais e para a forma como a segurança online é garantida, especialmente para públicos vulneráveis.
O futuro da segurança no Instagram e a responsabilidade das plataformas
A Meta afirma estar comprometida com a segurança de seus usuários e investindo em tecnologias e políticas para mitigar riscos. A remoção de conteúdo explícito e a proteção contra cyberbullying e assédio são áreas de foco contínuo. No entanto, a eficácia dessas medidas é constantemente testada pela criatividade e pela escala das interações online.
A discussão sobre a responsabilidade das plataformas digitais está longe de terminar. A linha tênue entre liberdade de expressão, privacidade e a necessidade de proteger usuários, especialmente crianças e adolescentes, continuará a ser um debate central. A forma como a Meta e outras empresas de tecnologia navegarão por essas complexidades definirá o futuro do ambiente online.
Enquanto a empresa se prepara para implementar novas políticas de remoção de conteúdo no final de 2025, a pressão por maior transparência e por ações mais eficazes deve continuar. A confiança dos pais e dos jovens na segurança de plataformas como o Instagram dependerá da capacidade da Meta em demonstrar resultados concretos e em agir de forma proativa para proteger seus usuários mais jovens de exposições nocivas.