Apesar de ser uma plataforma originalmente voltada para a comunicação entre gamers e comunidades on-line, além de ser usado para atividades em grupo, como cursos, o Discord tem sido cada vez mais utilizado por cibercriminosos, inclusive os que atuam contra crianças e adolescentes.
O modelo técnico do serviço, aliado à sua popularidade entre o público jovem e à flexibilidade de suas ferramentas, criou um terreno fértil para crimes digitais, e especialistas ouvidos pela coluna explicam como isso acontece.
“O Discord possui uma arquitetura onde você pode criar servidores privados e canais fechados, de forma que apenas com um convite ou com uma permissão específica, só com esse filtro, é possível entrar”, afirma Rodrigo Fragola, especialista em crimes cibernéticos.
Segundo ele, isso permite a criação de “comunidades fechadas e que podem ter atividades ilícitas ou não”, tornando, assim, a fiscalização limitada.
Para Cleber Brito, Diretor de Segurança e Tecnologia da Informação na Foundever, esses ambientes operam como “bolhas digitais inacessíveis sem convite”.
Para ele, chats fechados, mesmo dentro de servidores maiores, permitem conversas fora do radar, dificultando o rastreamento de mensagens suspeitas, especialmente quando as vítimas são manipuladas a manter o silêncio.
Paulo Freitas, professor da UFPE e pesquisador apoiado pelo Instituto Serrapilheira, destaca que ambientes de comunicação digital desse tipo também são utilizados por grupos que trocam informações sobre golpes, malwares (programas criados para causar danos a um sistema) e dados obtidos ilegalmente.
“Usuários que estejam mal-intencionados podem conversar privadamente, seja uma conversa individual, um para um, seja também em grupos com outros cibercriminosos, por exemplo, trocando informações sobre golpes que pretendem realizar e como realizar esses golpes, sobre malwares, e também comercializando credenciais vazadas, arquivos roubados e até cartão de crédito clonado”.
O uso da plataforma sem identificação robusta também contribui para o anonimato. “É muito comum as pessoas entrarem nesse tipo de ferramenta utilizando um apelido, utilizando um codinome”, explica Fragola. Essa ausência de verificação facilita a atuação de perfis falsos, inclusive para fins de aliciamento.
Outro ponto recorrente abordado pelos especialistas é a possibilidade de automação. Segundo eles, o Discord permite que usuários programem bots da plataforma, tornando possível o envio de mensagens em massa -o que pode ser explorado para fins ilícitos.
“Cibercriminosos podem criar bots para disseminar links maliciosos, coletar dados dos usuários, ou manipular conteúdos dentro dos canais”, afirma Brito.
Fragola, na mesma linha, também aponta que “a utilização de robôs e das APIs propicia escalar de forma maior aquela ação que se pretende fazer”.
Para os especialistas, a moderação da plataforma também apresenta limitações. No Discord, explica Cleber Brito, a plataforma está “no caminho” para uma moderação mais adequada, mas os mecanismos aplicados ainda têm alcance restrito e tem foco em comunidades, mas com “moderação descentralizada”.
“O Discord faz verificações automatizadas básicas para links maliciosos e arquivos potencialmente perigosos. No entanto, a moderação de conteúdo é limitada e depende fortemente dos administradores locais dos servidores. Isso significa que imagens impróprias, documentos contendo conteúdo abusivo ou links para páginas perigosas podem circular livremente em servidores sem moderação ativa”, afirma.
Fragola ressalta que, embora o uso de ferramentas automatizadas, como é o caso do Discord, ajudem na tarefa de regular os conteúdo que circula dentro da rede, sua capacidade de análise de linguagem ainda é limitada. Especialmente quando se trata de linguagem em códigos, algo comum entre grupos criminosos que usam desse artifício para burlar a moderação.
“As pessoas podem utilizar de linguagem com segundas intenções e o robô não identificar essa linguagem. Podem utilizar sarcasmo, e o robô não vai entender. Podem utilizar linguagens codificadas, o que é muito normal em determinados nichos de pessoas mais jovens. Eles podem, sabendo que existem robôs, evitar determinadas palavras e desse jeito escapar da detecção automática muito fácil”, diz.
Ele também observa que a moderação humana também é efetiva, mas limitada em questão de volume de análises e o alto custo. “As equipes humanas são geralmente pequenas e são muito caras”, afirmou à coluna.
Discord é “ponta do iceberg”
Apesar do crescente uso do Discord por cibercriminosos, especialistas alertam que a rede representa apenas uma parte de um cenário mais amplo e descentralizado do uso de plataformas variadas como meio de perpetrar crimes contra jovens.
Esses especialistas e outras autoridades ouvidas pela coluna sobre o assunto também são taxativos em afirmar não ser possível responsabilizar uma rede pelo problema, uma vez que a sua grande maioria tem seu uso -primariamente lícito -desvirtuado por criminosos.
É o que destaca Michele Prado, pesquisadora da radicalização on-line. Segundo ela, muitas dinâmicas mais profundas de radicalização e aliciamento ocorrem em plataformas menores e alternativas, chamadas de “alt-techs”, ou aquela com menor moderação.
“Dentro do universo do extremismo violento e terrorismo on-line, de radicalização on-line, cada plataforma tem uma dinâmica específica […] O Discord é apenas uma das plataformas que eles utilizam, mas há muitas outras”, afirma.
Para ela, há ainda lacunas a serem preenchidas na moderação feita pelo Discord, mas parte do problema também vem da rápida adaptação dos usuários a formas de burlar o sistema.
“Claro que há falhas ainda na moderação, mesmo porque tudo é muito dinâmico, eles estão sempre tentando invadir da moderação, sistemas de filtragem. Mas, por exemplo, quando o Discord, ou quando a gente consegue descobrir algum tipo de termo que está sendo utilizado para invadir da moderação, aí começa a derrubar esse conteúdo”, afirma.
Discord diz reforçar mecanismos de proteção
Como mostrou a coluna, diante do aumento de crimes cibernéticos contra crianças e adolescentes no Brasil, redes sociais firmam que têm reforçado mecanismos de moderação de conteúdo, além de implementar novas ferramentas de proteção e intensificar a colaboração com autoridades.
Dentre elas, está o Discord, que afirma estar investindo fortemente em tecnologia de detecção proativa de conteúdos ilícitos e na criação de um ambiente mais seguro para seus usuários, especialmente os mais jovens.
A empresa diz estar comprometida em “proporcionar um ambiente on-line positivo e acolhedor”, e reforça que conteúdos relacionados a atividades ilegais, violência ou exploração infantil “não têm espaço no Discord nem na sociedade”.
Para isso, a plataforma adota uma estratégia de moderação em três níveis. No primeiro, atua diretamente com aplicação das Diretrizes da Comunidade, que se aplicam a todo conteúdo e a todas as interações dentro da plataforma. em todos os servidores da plataforma.
No segundo, fornece suporte a administradores e moderadores, que podem criar e aplicam regras adicionais dentro das comunidades. “Os administradores de servidores e moderadores voluntários definem e aplicam normas de comportamento adicionais nas suas comunidades, que podem ir além das Diretrizes da Comunidade do Discord, mas nunca contrárias”, afirma.
No terceiro, oferece ferramentas aos próprios usuários para controlarem sua experiência, com filtros de conteúdo e configurações de privacidade.
Entre as medidas tecnológicas, o Discord cita o uso de modelos de machine learning, além da tecnologia de hash de imagens, como o PhotoDNA, que ajuda a detectar e bloquear conteúdos ilícitos.
A empresa também desenvolveu modelos próprios de detecção, que foram disponibilizados como código aberto, sob a justificativa de que “tecnologias que aprimoram a segurança on-line não devem ser uma vantagem competitiva, mas um bem compartilhado”.
Além das ações técnicas, a plataforma destaca sua cooperação com autoridades brasileiras, incluindo denúncias de indivíduos e grupos suspeitos, além de pontuar sua colaboração com investigações e participação em operações de segurança pública.
O Discord afirma manter “um diálogo contínuo com o sistema judiciário brasileiro” e relata que suas ações já contribuíram para a prevenção de crimes e para a prisão de envolvidos em redes criminosas.
A empresa também tem reforçado sua atuação local, com uma equipe dedicada ao Brasil.
Segundo a plataforma, mais de mil profissionais já foram capacitados por meio de treinamentos realizados com apoio da plataforma.
Na proteção a menores de idade, o Discord destaca a iniciativas da rede incluem alertas e filtros de conteúdo sensível, além de recursos voltados para pais e responsáveis. Segundo a empresa, essas ferramentas ajudam a promover “um diálogo produtivo sobre hábitos mais seguros na internet”.