Adultização: o que Meta e Google estão fazendo após denúncias de Felca
Vídeo feito por youtuber reacendeu o debate sobre a exposição precoce de crianças e adolescentes no ambiente digital
Nos últimos dias, o youtuber Felca ganhou destaque nas redes sociais ao denunciar a "adultização" e exploração de crianças e adolescentes no ambiente digital, exemplificando o caso de Hytalo Santos, conhecido como influencer das "crias", por reunir pessoas em uma mansão, compartilhando todos os detalhes de suas respectivas rotinas.
Em parte, os convidados são meninas e meninos menores de idade, que ele costuma chamar de "filhas" e "genros". Em um dos vídeos mais recentes, o público acompanha a encenação de um pedido de namoro entre jovens. A garota que faz parte do "teatro" é retratada como alguém que ainda não completou os 18 anos.
A publicação de Felca, que já conta com quase 30 milhões de visualizações, instigou e reacendeu diversos debates sobre os limites éticos na produção de conteúdo com menores e como os algoritmos podem ser condicionados na propagação desses materiais.
Com a repercussão, pesquisadores do Laboratório de Pesquisa em Internet e Redes Sociais da UFRJ (Universidade Federal do Rio de Janeiro) confirmaram o crescimento desse tipo de conteúdo, defendendo medidas urgentes, como filtros rigorosos e bloqueios preventivos para termos ligados à exploração infantil.
No Congresso, o tema também ganhou força, com deputados defendendo a aceleração de projetos de lei para aumentar a proteção de crianças e adolescentes na internet. Até o momento, 12 novas propostas foram apresentadas, que se somam a, pelo menos, outras 26 que já tramitavam na Câmara.
Como esse tipo de conteúdo é favorecido pelos algoritmos?
A CNN conversou com Felipe Salvatore, sócio-fundador da Myhood, startup que licencia vídeos virais e conteúdos gerados por usuários (UGC), garantindo que a distribuição seja feita de forma segura, legal e ética, com checagem de autoria, autorização e remuneração justa, que explica que mais de 90% dos conteúdos que consumimos no Instagram e no TikTok são recomendados pela própria plataforma.
"Já ficou no passado a época em que assistíamos apenas a conteúdos de pessoas que seguíamos ou de canais nos quais estávamos inscritos. Hoje, a maior parte dos minutos de visualização vem dos algoritmos de recomendação — usados com maestria nos feeds verticais para manter o usuário interessado e rolando a tela sem parar", diz o especialista.
Assim, os algoritmos analisam métricas de navegação do usuário, como taxa de retenção, curtidas e comentários, e passam a recomendar vídeos com características semelhantes àqueles que despertaram interesse anteriormente (identificado pelo comportamento dentro da plataforma).
"No Instagram e no TikTok, todo conteúdo é categorizado com base em sinais específicos e agrupado em 'clusters' — como stand-up, calistenia, dança de rua, relógios de luxo, entre outros. Essa categorização leva em conta elementos da própria postagem (legenda, hashtags, sons utilizados) e também o perfil do público que interage com ela. Ou seja: um conteúdo criado com um determinado propósito pode ser apresentado para um público completamente diferente, dependendo de quem está engajando", explica.
"É o que muitos criadores chamam de 'entregar para o público errado'. Por exemplo, uma influenciadora de maquiagem e cuidados femininos pode ter seu conteúdo recomendado para uma audiência totalmente fora do seu nicho se surgirem comentários masculinos elogiando sua aparência ou atributos físicos. Nesse caso, o algoritmo pode interpretar que esse tipo de público é o mais interessado naquele vídeo, criando um loop de recomendação que reforça esse direcionamento", detalha.
O problema, segundo ele, se agrava quando essa lógica é aplicada a contextos sensíveis, como o que foi denunciado recentemente pelo youtuber Felca. "Na minha visão, as plataformas falharam de duas formas distintas: a simples presença de conteúdos que exponham crianças já é, por si só, extremamente problemática. Com a recente reinterpretação do STF sobre o artigo 19 do Marco Civil da Internet, as plataformas deveriam agir preventivamente para impedir que esse tipo de material permaneça online — podendo inclusive ser responsabilizadas judicialmente caso falhem nesse dever", diz.
"Mais grave ainda é o uso da própria tecnologia de recomendação para direcionar esse tipo de conteúdo a indivíduos com interesses criminosos, tratando isso como se fosse um novo “nicho” de interesse", acrescenta.
Embora o caso pareça isolado, Felipe diz que esse tipo de crise não é novidade no setor. "O que está sendo denunciado no Instagram hoje aconteceu de forma semelhante no YouTube em 2019, no episódio conhecido como Adpocalypse. Na ocasião, diversos criadores denunciaram a existência de vídeos com exposição de crianças e comentários de cunho pedófilo. A repercussão gerou pressão da comunidade sobre as empresas anunciantes, levando gigantes como Disney e Epic Games a suspenderem seus anúncios na plataforma", recorda.
"Essa é a mesma pressão que o Instagram enfrenta agora. Um ambiente associado a casos de pedofilia está muito distante de ser atrativo para marcas investirem em publicidade. A rápida remoção dos perfis citados por Felca indica que a plataforma não pretende tratar o assunto de forma leviana — afinal, está em jogo sua principal fonte de receita", conclui.
O que dizem o Google e a Meta após exposição feita por Felca?
Procurado pela CNN, o YouTube, subsidiado pelo Google, explicou, em nota, que a segurança infantil é uma prioridade da plataforma, por isso, conta com uma política específica sobre o tema, e não permite conteúdo que coloque em perigo o bem-estar emocional ou físico de menores.
"Removemos esse tipo de conteúdo assim que identificado. Apenas em 2024, excluímos mais de 18,8 milhões vídeos da plataforma globalmente por infringir nossa política de segurança infantil, conforme mostra nosso Relatório de Transparência", diz trecho.
"A plataforma está constantemente aprimorando suas regras e ferramentas para garantir a segurança de todos os usuários, especialmente crianças e adolescentes. Acreditamos na importância de um ambiente online seguro e positivo para o público mais jovem, e trabalhamos em conjunto com pais, educadores e especialistas para atingir esse objetivo", adiciona.
Enquanto a Meta, gigante tecnológica que comanda o Instagram, afirmou: "não permitimos e removemos de nossas plataformas conteúdos de exploração sexual, abuso, nudez infantil e sexualização de menores".


