A presença massiva de crianças e adolescentes em ambientes digitais tem levado autoridades a ampliar o monitoramento de crimes cometidos por meio dessas plataformas. De acordo com investigadores que atuam na área, a maioria das big techs tende a cooperar com investigações de crimes digitais, embora citem que as redes ainda carecem de uma moderação mais robusta.
A moderação de redes sociais é o conjunto de políticas e ferramentas adotadas pelas plataformas para revisar, filtrar, remover ou restringir conteúdos que violem os termos de uso ou leis locais. Esse processo pode ser realizado tanto por uma inteligência artificial, de forma automatizada, quanto por equipes humanas contratadas pelas plataformas. modelos híbridos também são comuns.
O objetivo desses mecanismos é garantir que os ambientes on-line mais seguro, embora o volume de conteúdo disseminado nas redes pode fazer com que o trabalho seja dificultado.
A moderação ajuda, por exemplo, a coibir discursos de ódio, desinformação, violência explícita, assédio, conteúdos de exploração sexual infantil, entre outros materiais nocivos. Já a eficácia dessa moderação varia de acordo com a plataforma.
Ela também está diretamente ligada ao combate aos cibercrimes, especialmente aqueles que envolvem crianças e adolescentes, como aliciamento, abuso sexual, extorsão e uso indevido de imagens íntimas.
Quando feita de forma eficaz, a moderação permite identificar e bloquear contas suspeitas, remover conteúdos ilegais e colaborar com investigações. Por outro lado, falhas na moderação, como demora na remoção de conteúdos ou ausência de filtros, acabam favorecendo a atuação de criminosos, que se aproveitam de brechas.
O coordenador do Laboratório de Operações Cibernéticas (Ciberlab) do Ministério da Justiça (MJ), Alesandro Barreto, afirma que, nesse sentido, o apoio das plataformas tem sido crucial para a resolução de crimes, que tendem a ajudar com o fornecimento de dados.
“As plataformas são cooperativas e, por conta disso, temos visto vários casos sendo solucionados e criminosos que se achavam escondidos por trás da conexão na internet, respondendo na justiça”, completou.
Leia também
-
Cibercrimes têm se multiplicado em plataformas como o Discord
-
Por que o Discord se tornou tão popular para crimes cibernéticos
-
Redes afirmam que colaboram com investigações de crimes on-line
Em um dos casos relatados por ele, por volta das 7h da manhã, uma transmissão ao vivo pelo Discord mostrava um morador de rua sendo queimado vivo. A identificação da autoria ocorreu em poucas horas, antes mesmo do registro formal da ocorrência.
“Dez horas da manhã já estava com a autoria. Já se sabia quem tinha feito e quem estava por detrás disso. Isso mostra um avanço por parte das polícias, que a autoria foi descoberta até mesmo antes do registro de ocorrência”, afirmou à coluna.
Barreto, no entanto, concorda que é necessária alguma melhoria, que ele sugere seja feita por meio do algoritmo das redes. “O que essas plataformas podem fazer? Melhorar o algoritmo para evitar que na hora que estiver transmitindo [por exemplo] alguém sendo mutilando, já tentar com a maior agilidade fechar [a transmissão]”, disse.
Para Michele Prado, pesquisadora de radicalização on-line e fundadora do Stop Hate Brasil, embora haja falhas técnicas, é preciso levar em conta também a adaptação dos jovens à dinâmica on-line, fazendo com que em pouco tempo já possam até burlar um sistema de proteção.
“Claro que há falhas ainda na moderação, mesmo porque tudo é muito dinâmico, eles estão sempre tentando invadir a moderação, sistemas de filtragem”, afirma.
Para o procurador de Justiça Fábio Vieira Costa, que coordena o Núcleo de Prevenção à Violência Extrema (Nupve) do Ministério Público do Rio Grande do Sul (MPRS), o problema não está necessariamente na falta de resposta das plataformas.
Para ele, o foco das autoridades não pode se restringir às big techs, já que adolescentes e criminosos operam em ambientes cada vez mais pulverizados.
“As big techs são uma ponta do problema. Muitas vezes colaboram, outras vezes não. Mas tem aquilo que vão chamar de ‘micro tech’. Tem um monte de aplicativinho novo que vai aparecendo e os nossos jovens vão migrando. Tem coisa que tu nunca ouviu falar que eles usam. Tem todo o ecossistema gamer, onde eles se comunicam, atuam, interagem”, diz.
Leia também
-
Cibercrimes têm se multiplicado em plataformas como o Discord
-
Por que o Discord se tornou tão popular para crimes cibernéticos
-
Redes afirmam que colaboram com investigações de crimes on-line
A ausência de verificação robusta de identidade contribui para a proliferação de perfis falsos e o anonimato, recursos comumente explorados por cibercriminosos. Embora muitas plataformas ofereçam mecanismos como verificação por e-mail e telefone, o uso de codinomes e apelidos ainda é comum, dificultando o rastreio ao real dono do perfil.
A moderação, por sua vez, tende a operar principalmente de forma reativa. Ela depende de denúncias manuais e de sistemas automatizados que, como aponta Fragola, têm pouca capacidade de interpretar linguagens codificadas ou gírias, que mudam frequentemente.
“As pessoas podem utilizar de linguagem com segundas intenções e o robô não identificar essa linguagem. Podem utilizar sarcasmo, e o robô não vai entender. Podem utilizar linguagens codificadas, o que é muito normal em determinados nichos de pessoas mais jovens. Eles podem, sabendo que existem robôs, evitar determinadas palavras e desse jeito escapar da detecção automática muito fácil”, pondera.
Um exemplo concreto citado por Lisandrea Colabuono, coordenadora do Núcleo de Operações e Articulações Digitais (Noad) da Polícia Civil de São Paulo é o uso da palavra “luz”, que passou a ser empregada como código por grupos criminosos para “eventos” on-line.
Nos ambientes fechados, os chamados “eventos” também se tornam frequentes. Esse é o nome dado para transmissões ao vivo em que adolescentes praticam automutilação, exibem abusos ou cometem agressões a terceiros e até a animais.
Neles, é comum a transmissão de “desafios”, que consistem em dinâmicas on-line com práticas como a do “chroming” -quando a vítima é induzida a aspirar desodorante até desmaiar -, ou do “blackout” – quando envolve sufocamento, entre outros.
Quando a expressão passou a ser identificada pelas autoridades, os criminosos simplesmente a substituíram.
“O evento que eu falo é porque eles pararam de usar aquela palavra luz. Pararam. Por quê? Porque algumas plataformas, como o TikTok, a Meta, começaram a identificar essa palavra. E o que eles usavam? A palavra luz seria pra indicar um ‘evento’. Luz é ‘evento’”, relatou.
Por mais que existam sugestões de melhoria no quanto à proteção de usuários, como verificação de identidade obrigatória, filtros mais eficazes e auditoria automatizada de servidores, a implementação dessas medidas ainda depende da disposição técnica e comercial das plataformas.
Plataformas afirmam implementar melhorias
Como mostrou a coluna, diante do aumento de crimes cibernéticos contra crianças e adolescentes no Brasil, redes sociais afirmam que têm reforçado mecanismos de moderação de conteúdo, além implementar novas ferramentas de proteção e intensificar a colaboração com autoridades.
Redes como o Discord, TikTok e as plataformas da Meta, que abarca o Instagram, WhatsApp e o Facebook, afirmam que investem não apenas em tecnologia de detecção proativa, por meio de mecanismos de moderação, mas também em canais específicos de segurança, suporte a investigações e a disponibilização de conteúdo informativo para jovens e responsáveis.
O Discord, por exemplo, enfatiza a atuação em conjunto com as autoridades, e diz que tem denunciado proativamente grupos e indivíduos envolvidos nesse tipo de conduta, bem como outros comportamentos que representem riscos para terceiros.
A plataforma também diz que mantém sessões de treinamento com agentes de segurança, inclusive para capacitá-los no âmbito da solicitação de informações. Esse é, segundo o Discord, um detalhe importante para que dados eventualmente compartilhados sejam repassados de forma eficiente pelas redes e possam compor um eventual processo na Justiça.
Com relação à moderação, a plataforma diz que tem investido “fortemente” na área. Afirma ainda que, ao detectar violações das políticas, “tomamos as medidas cabíveis, incluindo o encerramento de servidores violadores, o banimento de pessoas mal-intencionadas e a denúncia de violações às autoridades policiais, em conformidade com a lei”.
Já o TikTok diz que “a segurança de jovens é prioridade máxima” e que sua arquitetura é pensada desde o início com foco na proteção de crianças e adolescentes.
A empresa também relata que tem atuado em colaboração com agentes de polícia em diversas investigações e que tem configurações diferenciadas aplicadas pela rede para usuários entre 13 e 18 anos.
A Meta, que inclui Instagram, Facebook e WhatsApp, diz que os Termos de Uso do Instagram e Facebook exigem que usuários tenham ao menos 13 anos de idade para criarem suas contas nas plataformas. “No começo deste ano, começamos a disponibilizar no Brasil a Conta de Adolescente no Instagram”.
No WhatsApp, a empresa afirma que possui políticas, tecnologias e equipes especializadas focadas em “eliminar interações abusivas”. “O WhatsApp conta com todas as informações não criptografadas (incluindo denúncias de usuários) para detectar e prevenir esse tipo de abuso, e está constantemente aprimorando a tecnologia de detecção.”, diz.
Outro ponto levantado pela plataforma é o relato de violações aparentes das leis relacionadas a materiais de abuso sexual infantil à linha de denúncia CyberTipline do NCMEC, que colabora com autoridades policiais no mundo todo.
Já o Roblox, que faz parte do ecossistema gamer, reiterou que está “constantemente evoluindo nossas políticas, tecnologias e esforços de moderação para proteger nossa comunidade, especialmente os jovens”.
“Isso inclui investir em ferramentas avançadas de segurança, trabalhar em estreita colaboração com especialistas e capacitar pais e responsáveis com controles robustos e recursos adequados. Somente em 2024, adicionamos mais de 40 novos aprimoramentos de segurança”, disse em resposta à coluna.