Alta de casos de exploração sexual infantil e deepfakes produzidas com auxílio de IA preocupam especialistas

Levantamentos recentes de organizações de defesa digital e recomendações de instituições públicas brasileiras indicam que a exploração sexual infantil no ambiente virtual não apenas se mantém em níveis elevados, como também se transforma em razão do uso de ferramentas de inteligência artificial (IA). Dados apontam aumento nas denúncias de crimes cibernéticos, inclusão de deepfakes sexuais envolvendo mulheres e crianças e medidas oficiais para tentar conter a produção e circulação desses conteúdos.
Segundo dados divulgados pela SaferNet Brasil, a Central Nacional de Denúncias de Crimes Cibernéticos registrou 87.689 queixas únicas de crimes online em 2025, um crescimento de 28,4% em relação ao ano anterior. Destes, 63.214 casos estão relacionados a imagens de abuso e exploração sexual infantil, a segunda maior marca da série histórica da organização. Para especialistas, a inteligência artificial contribui para tornar mais fácil a criação e o compartilhamento de materiais nocivos.
Além de conteúdos de exploração infantil, a pesquisa também apontou aumentos expressivos em outras categorias de crimes virtuais, como misoginia e discriminação, mas é o volume de abusos sexuais que continua predominando nas notificações recebidas pela central.
Um mapeamento feito pela SaferNet Brasil identificou 173 vítimas de deepfakes sexuais em escolas de oito estados brasileiros, todas do sexo feminino, entre alunas e professoras, em um levantamento baseado em monitoramento de notícias. Os dados foram apresentados na última terça-feira (10). Deepfakes são imagens e vídeos falsos gerados por IA que manipulam o rosto de pessoas reais em contextos sexualizados, sem consentimento, violando sua privacidade e dignidade.
O relatório, que começou a ser elaborado em 2023 com apoio do fundo SafeOnline da Unicef, aponta também que a própria SaferNet registrou dezenas de links relacionados a esse tipo de abuso na sua plataforma de denúncia desde então, ilustrando como a tecnologia de IA tem sido aproveitada para intensificar a exposição de vítimas, especialmente menores, a materiais de teor sexual.
Diante desse cenário, instituições brasileiras como o Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) recomendaram formalmente que a plataforma X (antigo Twitter) impeça a geração de conteúdos sexualizados por meio do Grok, assistente de IA da plataforma. Essas recomendações buscam não apenas barrar a criação de deepfakes envolvendo crianças e adolescentes, mas também instituir mecanismos que permitam aos titulares de dados exercerem seus direitos e denunciarem abusos de forma eficaz.
O documento elaborado pelas instituições ressalta que a produção de conteúdos sintéticos sem consentimento, incluindo imagens de menores, pode ferir tanto a proteção de dados quanto direitos fundamentais da pessoa humana, especialmente no contexto de exploração sexual infantil. As recomendações enfatizam a necessidade de filtros robustos e mecanismos de denúncia claros para coibir a criação de deepfakes e reforçar a responsabilização de provedores de aplicação.


