Nudes no Instagram: 20% dos jovens já viram imagens sexuais explícitas, aponta Meta

Pesquisa da Meta e depoimentos judiciais apontam exposição de adolescentes a nudez e conteúdo sexual na plataforma

Jennifer Feitosa
fonte

De cada cinco jovens, um já encontrou imagens ou vídeos sexualmente explícitos no Instagram, segundo dados da Meta. A revelação surge em meio a depoimentos relacionados a um processo judicial.

Usuários com idades entre 13 e 15 anos foram alvo desses conteúdos indesejados, como nudez ou imagens sexuais. As redes sociais exigem atenção e cuidado constantes.

Um depoimento, divulgado recentemente como parte de um processo judicial na Califórnia e revisado pela Reuters, alega que, em março de 2025, o chefe do Instagram, Adam Mosseri, relatou trechos de sua fala.

O dono da empresa afirmou não haver compartilhamento de resultados gerais de pesquisas internas. Ele ressaltou que pesquisas autorrelatadas são problemáticas, conforme o depoimento. A porta-voz da Meta, Andy Stone, complementou que a pesquisa ocorreu em 2021.

VEJA MAIS

image Vazaram nudes de Taylor Swift? Entenda o caso e saiba a verdade sobre imagens geradas por IA
Ferramenta de Elon Musk, Grok Imagine, foi usada para criar imagens falsas da cantora; recurso "modo picante" permite deepfakes explícitos de celebridades

image Homem fingiu ser mulher para conseguir nudes de adolescente pelo Instagram
O ato criminoso foi denunciado pela vítima ao Departamento de Homicídios e de Proteção à Pessoa (DHPP)

image Câmara aprova projeto que torna crime a divulgação de fotos de nudez geradas por IA
Projeto prevê reclusão de dois a seis anos e multa para a chamada produção de 'deepnude'; texto vai ao Senado

Impactos negativos das redes sociais nos jovens

A Meta, proprietária do Facebook e do Instagram, é frequentemente vista por líderes globais como prejudicial para os jovens. Centenas de acusações judiciais nos Estados Unidos descrevem a empresa como porta para produtos viciantes que afetam negativamente a saúde mental de adolescentes.

Além de conteúdos impróprios, 8% da faixa etária entre 13 e 15 anos encontrou vídeos com intenção de automutilação ou ameaças na plataforma, conforme o depoimento.

Explicações e soluções propostas pela meta

Stone explicou que as questões sobre imagens explícitas surgiram a partir de uma pesquisa sobre experiências dentro da plataforma, e não por análise direta das publicações.

De acordo com Mosseri no depoimento, as imagens sexualmente explícitas foram compartilhadas de forma privada na maioria das vezes. A Meta deve considerar a privacidade dos usuários. "Muitas pessoas não querem que a gente leia suas mensagens", ressaltou o executivo.

A empresa se posicionou no final de 2025 com uma solução para usuários adolescentes. Será feita a retirada de conteúdos com nudez ou atividade sexual explícita, incluindo aqueles gerados por IA. Conteúdos médicos e educacionais são as únicas exceções.

"Estamos orgulhosos do progresso que fizemos e estamos sempre trabalhando para melhorar", compartilhou Stone.

(Jennifer Feitosa, Jovem Aprendiz, sob supervisão de Vanessa Pinheiro, editora web de oliberal.com)

Assine O Liberal e confira mais conteúdos e colunistas. 🗞
Entre no nosso grupo de notícias no WhatsApp e Telegram 📱
Variedades
.
Ícone cancelar

Desculpe pela interrupção. Detectamos que você possui um bloqueador de anúncios ativo!

Oferecemos notícia e informação de graça, mas produzir conteúdo de qualidade não é.

Os anúncios são uma forma de garantir a receita do portal e o pagamento dos profissionais envolvidos.

Por favor, desative ou remova o bloqueador de anúncios do seu navegador para continuar sua navegação sem interrupções. Obrigado!