MAIS

    Redes afirmam que colaboram com investigações de crimes on-line

    Por

    Diante do aumento de crimes cibernéticos contra crianças e adolescentes no Brasil, redes sociais afirmam que têm reforçado mecanismos de moderação de conteúdo, além implementar novas ferramentas de proteção e intensificar a colaboração com autoridades.

    A tendência, como mostrou a coluna, tem se espalhado cada vez mais por plataformas como o Discord, WhasApp, redes sociais como o TikTok, e até nos ecossistemas gamers. Elas são, muitas vezes, utilizadas como porta de entrada para esses crimes e onde vítimas podem ser facilmente identificadas.

    Segundo investigadores e especialistas ouvidos pela coluna, há uma percepção crescente de que esses crimes, que podem envolver desde exploração sexual, assédio e aliciamento on-line, têm se tornado mais frequentes, especialmente por criminosos que veem nas plataformas digitais uma oportunidade para alcançar vítimas vulneráveis.

    Embora algumas redes sejam identificadas com maior frequência, especialistas afirmam que nenhuma delas, por si só, é responsável pelo problema. No entanto, alertam para a necessidade de  aprimoramento na moderação de conteúdo e controle de usuários.

    “A imensa maioria das plataformas, elas são criadas com a finalidade lícita. Mas o que ocorre no meio do caminho? O que a gente chama de uso dual da tecnologia. O criminoso pega o que foi criado licitamente e começa a utilizar ilicitamente. Então, ocorre em todas”, pondera Alesandro Barreto, coordenador do Laboratório de Operações Cibernéticas (Ciberlab), do Ministério da Justiça (MJ).

    Apesar de não serem criadas com esse propósito, as plataformas reconhecem a responsabilidade de mitigar os riscos quanto ao cometimento de crimes por usuários e relatam tentativas de mitigar o problema.

    Nessa esteira, redes como o Discord, TikTok e as plataformas da Meta, que abarca o Instagram, WhatsApp e o Facebook, afirmam que investem não apenas em tecnologia de detecção proativa, por meio de mecanismos de moderação, mas também em canais específicos de segurança, suporte a investigações e a disponibilização de conteúdo informativo para jovens e responsáveis.

    O TikTok, por exemplo, diz que “a segurança de jovens é prioridade máxima” e que sua arquitetura é pensada desde o início com foco na proteção de crianças e adolescentes.

    “Reportamos às autoridades policiais sempre que identificamos uma ameaça específica, credível e iminente à vida ou à integridade física de alguém”, afirmou a plataforma em resposta à coluna.

    A empresa também relata que tem atuado em colaboração com agentes de polícia em diversas investigações, como o caso de ameaças de um suposto ataque durante o show da Lady Gaga, no Rio de Janeiro, em maio deste ano.

    Outro ponto destacado pelo TikTok é a equipe de moderação, que conta com mais 40 mil profissionais dedicados à segurança, e as configurações diferenciadas aplicadas pela rede para usuários entre 13 e 18 anos.

    “O TikTok é para maiores de 13 anos e, se descobrirmos que alguém abaixo da idade mínima está na plataforma, baniremos essa conta […] Usuários de 13 a 18 anos têm configurações de conta diferenciadas e diretrizes especificas sobre conteúdo direcionado a jovens”, explica.

    Dentre as configurações, estão ferramentas como a sincronização familiar, em que pais ou responsáveis podem vincular suas contas a de seus adolescentes, além da possibilidade de controle parental com visibilidade de contas seguidas e bloqueadas, alertas para os pais de denúncias feitas pelos filhos e limite de uso diário de 1 hora.

    Imagem colorida de jovens mexendo nas redes sociais juntos - MetrópolesJovens mexendo nas redes sociais

    Da mesma forma, o Discord enfatiza a atuação em conjunto com as autoridades, e diz que tem denunciado proativamente grupos e indivíduos envolvidos nesse tipo de conduta, bem como outros comportamentos que representem riscos para terceiros.

    A plataforma também mantém sessões de treinamento com agentes de segurança, inclusive para capacitá-los no âmbito da solicitação de informações -detalhe importante para que dados eventualmente compartilhados sejam repassados de forma eficiente pelas redes e possam compor um eventual processo na Justiça.

    “Mantemos um diálogo ativo com as forças de segurança brasileiras em nível federal, estadual e municipal, oferecendo orientação e treinamento sobre como enviar solicitações legais adequadas, garantindo um processo eficiente e respostas em tempo hábil”, afirma a plataforma.

    Uma das formas de combate e repressão a cibercrimes e abusos contra crianças e adolescentes dentro das plataformas é por meio da moderação de conteúdo, um mecanismo que ainda apresenta lacunas.

    A ferramenta, que pode ser implementada por meios automáticos, ou pela atuação de fiscalização humana, ajuda a monitorar tendências dentro das redes, como o uso de palavras específicas usadas como espécie de códigos por redes criminosas para burlar esse sistema.

    A delegada Lisandrea Colabuono, que coordena o Núcleo de Observação e Análise Digital (Noad) da Polícia Civil de São Paulo, cita um exemplo em que criminosos passaram a usar a palavra “luz” para denominar os chamados “eventos”, dinâmicas on-line que englobam as práticas dos desafios como o do “chroming” -quando a vítima é induzida a aspirar desodorante até desmaiar -, ou do “blackout” – quando envolve sufocamento, entre outros.

    “O ‘evento’ que eu falo é porque eles pararam de usar aquela palavra luz. Pararam. Por quê? Porque algumas plataformas começaram a identificar essa palavra. E o que eles usavam? Luz é um evento de um maus-tratos animais, evento de alguém se mutilando, estupro virtual […] Então, diz relação a algum evento. Evento que vai ser transmitido ao vivo”, afirmou à coluna.

    Nesse sentido, o Discord também aponta que tem investido “fortemente” em moderação.

    “Investimos fortemente em ferramentas avançadas de segurança e sistemas de moderação. Quando detectamos violações das nossas políticas, tomamos as medidas cabíveis, incluindo o encerramento de servidores violadores, o banimento de pessoas mal-intencionadas e a denúncia de violações às autoridades policiais, em conformidade com a lei”, pontuou a plataforma.

    E pensando no contexto local de atuação no Brasil, o Discord também diz que implantou times especializados focados em identificar e remover conteúdos nocivos específicos da região. “Contamos com o apoio de uma agência local dedicada ao mercado brasileiro”, conclui.

    A Meta, por sua vez, responsável pelo WhatsApp, Instagram e Facebook, informa que a idade mínima para seus usuários é de 13 anos e, no início deste ano, passou a disponibilizar no Brasil a conta de adolescente no Instagram, que oferece proteções integradas que limitam quem pode entrar em contato com os adolescentes e o conteúdo que eles veem.

    “Colocamos os jovens automaticamente na Conta de Adolescente, sendo que os menores de 16 anos necessitam da permissão dos pais para alterar qualquer uma dessas configurações para que sejam menos rígidas.”, destaca.

    No WhatsApp, a empresa diz que possui políticas, tecnologias e equipes especializadas focadas em “eliminar interações abusivas”. “O WhatsApp conta com todas as informações não criptografadas (incluindo denúncias de usuários) para detectar e prevenir esse tipo de abuso, e está constantemente aprimorando a tecnologia de detecção.”, afirma.

    Outro ponto levantado pela plataforma é o relato de violações aparentes das leis relacionadas a materiais de abuso sexual infantil à linha de denúncia CyberTipline do NCMEC, que colabora com autoridades policiais no mundo todo.

    “Utilizamos tecnologia sofisticada para identificar de forma proativa conteúdos de exploração infantil em nossa plataforma — e entre julho e setembro de 2024, removemos mais de 12 milhões de conteúdos relacionados à exploração infantil do Facebook e do Instagram, mais de 98% dos quais foram identificados de forma proativa, antes mesmo de serem denunciados”, conclui.

    Além dos chats e redes sociais destinadas ao compartilhamento de vídeos, um ecossistema que tem se tornado atrativo para o cibercrime é o das plataformas gamers, justamente pela presença massiva de jovens no ambiente.

    O Roblox, plataforma de criação de jogos citada por investigadores da área de cibercrime como uma das redes utilizadas por criminosos on-line, não detalhou ações específicas junto a autoridades brasileiras, mas reiterou que está “constantemente evoluindo nossas políticas, tecnologias e esforços de moderação para proteger nossa comunidade, especialmente os jovens”.

    “Isso inclui investir em ferramentas avançadas de segurança, trabalhar em estreita colaboração com especialistas e capacitar pais e responsáveis com controles robustos e recursos adequados. Somente em 2024, adicionamos mais de 40 novos aprimoramentos de segurança”, disse em resposta à coluna.