
O que é o ‘algoritmo P’ citado por Felca e por que ele ameaça meninas
Mas o que realmente significa essa expressão? E por que ela acende um alerta fundamental sobre os riscos ocultos das redes sociais?
youtuber Felca citou um termo em seu vídeo sobre adultização de crianças e adolescentes — que denunciou o caso do influenciador Hytalo Santos, que está sendo investigado pelo Ministério Público da Paraíba — que passou despercebido, mas que expõe uma forma de funcionamento das redes sociais que pode ser mais danoso à saúde mental e segurança de meninas nestes espaços do que se imagina.
O “algoritmo P” foi um termo que cunhado por Felca para descrever um experimento que ele mesmo fez ao investigar como as redes sociais como Instagram, TikTok e outras, funcionam na hora de sugerir conteúdos sobre adultização e exploração sexual infantil.
Mas o que realmente significa essa expressão? E por que ela acende um alerta fundamental sobre os riscos ocultos das redes sociais? Se você chegou até aqui nesse texto, continue nesse texto com a gente para entender a questão (que já te atinge mesmo que indiretamente nas redes sociais, leitor e leitora de CAPRICHO).
Afinal, o que é o “algoritmo P”, CAPRICHO?
Vamos começar pelo começo. O chamado “algoritmo P” é a maneira como Felca apelidou um experimento que ele mesmo fez. Funcionou da seguinte maneira: ele mesmo criou um perfil do zero em uma plataforma de vídeos e interagiu com conteúdos considerados sugestivos.
O resultado? Dias depois, o sistema começou a recomendar cada vez mais vídeos com conteúdo de adultização, criados por e para menores, gerando um ciclo perigoso de exposição contínua em espaços que deveriam ser seguros.
+5 impactos positivos que o vídeo de Felca sobre ‘adultização’ pode gerar
Más, esse comportamento não é um bug — é parte da lógica algorítmica: o sistema entrega o que retém a atenção do expectador, e pornografia infantil e sexualização precoce sofrem menos filtros justamente porque geram engajamento alto.
Lembra que já falamos em outros textos sobre a responsabilidade das big techs nisso? Então. Tudo começa por aí.
E por que isso afeta tanto as meninas?
Não é de hoje: algoritmos de redes sociais impactam muito mais a saúde mental das meninas do que a dos meninos. A exposição repetida a conteúdos de moda, beleza e corpos idealizados reforça a pressão estética e comparações constantes, cruciais para disparar ansiedade, baixa autoestima e transtornos associados à imagem corporal.
No caso do “algoritmo P”, a situação é ainda mais grave. Ao recomendar conteúdo sexualizado envolvendo menores, o sistema pode:
-
Normalizar a exposição precoce como comportamento aceitável;
-
Atrair olhares predatórios, criando ambientes de risco;
-
Intensificar sentimentos de inadequação em meninas que consomem (mesmo sem querer) esse tipo de conteúdo.
Tudo isso cria um cenário de hipervigilância e insegurança, onde uma geração pode se sentir vigiada e julgada o tempo todo — o que é um ambiente extremamente nocivo para a formação da identidade e autoestima feminina.
E agora, como resolve, CAPRICHO?
Pois é. Essa é a pergunta que, se bobear, a resposta fará alguém perder milhões. Afinal, quanto mais visualizações um conteúdo tem, mais dinheiro dele rende para as empresas.
Mas, um primeiro passo, pode ser denunciar conteúdos que mostrem adultização ou sexualização de menores diretamente nas plataformas, usando as opções de “denunciar abuso” ou “conteúdo sexual envolvendo menores”. As redes sociais já têm essas opções disponíveis, viu?
Além disso, é preciso evitar esse engajamento. Ou seja, se algum vídeo desse tipo chegar até você, não curta, não compartilhe e não comente. A cada vez que isso acontece, a plataforma entende que as pessoas querem ver esse tipo de conteúdo e isso “alimenta” o algoritmo.
Você também pode conversar com seus amigos e amigas sobre o tema — além de pautar o tema em casa — e ler matérias da CAPRICHO como essa sobre o tema. A ideia é que a cada vez que falamos sobre isso, estamos ajudando você, nossos leitores, a criar consciência crítica sobre como os conteúdos são sugeridos para nós nas plataformas.
Só que não adianta muita coisa agirmos apenas de forma individual e particular. A responsabilidade principal é das big techs, ou seja, das empresas de tecnologia, donas das nossas redes sociais preferidas como Twitter, Instagram e TikTok.
Para que esse cenário mude é necessário pressionar empresas para que filtros mais eficazes contra a sexualização infantil sejam implementados; exigir transparência nos algoritmos e relatórios públicos de moderação; criar legislação que obrigue vigilância ativa e punição para quem se beneficie financeiramente de conteúdos nocivos.
Sem essa pressão social e política, o “algoritmo P” continuará funcionando em silêncio, impactando a saúde e a segurança de milhões de pessoas que fazem parte da nossa galera.
+Quer receber as principais notícias da CAPRICHO direto no celular? Faça parte do nosso canal no Whatsapp, clique aqui.