MAIS

    IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia

    Por

    O avanço da inteligência artificial tem trazido benefícios em várias áreas, mas também vem causando dores de cabeça a celebridades, como Zezé Di Camargo, Leonardo e Chico Buarque, que se veem envolvidas em publicações falsas nas redes sociais. Nos últimos meses, artistas brasileiros recorreram à Justiça após terem suas imagens e vozes utilizadas sem autorização em conteúdos enganosos.

    Em setembro, o cantor sertanejo Zezé Di Camargo acionou o Facebook na Justiça depois que perfis do Instagram divulgaram um vídeo feito por IA em que ele aparece, de forma manipulada, incentivando um suposto pedido de impeachment do ministro do STF, Alexandre de Moraes. Leonardo, por sua vez, apareceu em uma “filmagem” convocando Zé Felipe para um prostíbulo após a separação de Virginia Fonseca.

    Leia também

    Meses antes, o cantor Chico Buarque também havia processado a plataforma, após a divulgação de uma publicação que unia imagens artificiais a uma de suas músicas. A montagem retratava um confronto político entre direita e esquerda, com Alexandre de Moraes caracterizado como ditador em versão de cartoon, enquanto ao fundo tocava a canção Cálice, de autoria do artista.

    Análise de especialistas

    Casos como esses levantam um debate urgente: até que ponto o uso da inteligência artificial pode prejudicar a reputação de figuras públicas? Para entender melhor o tema, a coluna ouviu especialistas. De acordo com Daniel Bichuetti, CEO da Forlex, os casos mostram como a tecnologia pode operar em várias frentes contra a imagem pública de um artista.

    10 imagensFechar modal.1 de 10

    dowell/Getty Images2 de 10

    Tara Winstead/Pexels3 de 10

    Yuichiro Chino/Getty Images4 de 10

    Busakorn Pongparnit/Getty Images5 de 10

    Surasak Suwanmake/Getty Images6 de 10

    Getty Images7 de 10

    Dietas elaboradas por IA descosidera o histórico pessoal dos pacientes

    Getty Images8 de 10

    Tara Winstead/Pexels9 de 10

    Sem dúvida, a IA teve bastante impacto recente e é cotada à Pessoa do Ano da Time em 2024

    iStock10 de 10

    iStock

    “Esse episódio exemplifica perfeitamente a vulnerabilidade multivetor que a IA introduz na gestão reputacional. Estamos falando de ataques em três camadas: a criação do conteúdo falso, a propagação acelerada pelas redes sociais e a persistência digital, já que o material continua circulando mesmo após a remoção. Isso pode manchar gravemente a imagem pública, porque o dano opera em diferentes dimensões temporais, do impacto imediato à associação permanente em buscas na internet”, explicou.

    Victoria Luz, também especialista em inteligência artificial, reforçou que a alta exposição dos artistas amplia os prejuízos: “O uso indevido de deepfakes pode sim abalar a imagem de celebridades. No vídeo envolvendo Zezé, a IA colocou em sua boca uma fala política que ele nunca fez, o que gerou o que ele mesmo chamou de ‘danos irreparáveis à sua reputação’. Além disso, esse tipo de conteúdo falso viraliza com facilidade e, mesmo quando desmentido, deixa uma marca duradoura na percepção do público”, destacou.

    Monitoramento

    Apesar das ameaças, a IA também pode ser usada como aliada na proteção da imagem de figuras públicas. Segundo Bichuetti, já existem mecanismos voltados ao monitoramento e resposta rápida: “A capacidade defensiva da IA opera em três frentes: monitoramento proativo das menções, detecção de deepfakes e automação de respostas. Embora ainda haja limitações, como a velocidade de propagação superar a de detecção, com a arquitetura certa é possível reduzir bastante o tempo de resposta, antecipar ataques e agir rapidamente para mitigar os danos”, afirmou.

    Victoria complementou, ainda, que ferramentas de social listening (prática de monitorar e analisar conversas online sobre uma marca, produtos, setor e concorrentes em diversas plataformas digitais) baseadas em IA, já são usadas por celebridades e assessorias de imprensa.

    “Esses sistemas acompanham em tempo real tudo o que se fala sobre um artista na internet, identificam padrões de desinformação e alertam antes que uma fake news se torne incontrolável. Ainda assim, não existe solução milagrosa: a IA deve ser combinada com ação humana e medidas legais”, ressaltou a especialista.

    Uma “vilã invisível”?

    Mas a IA pode ser considerada uma “vilã invisível”? Para Bichuetti, é tecnicamente correto, mas o problema vai além da tecnologia em si: “Estamos diante de um ecossistema malicioso. O custo de criação de um deepfake é baixo, enquanto o custo de defesa é alto. Além disso, plataformas ainda monetizam engajamento sem considerar a veracidade do conteúdo, e o marco regulatório está atrasado em relação ao avanço tecnológico. É uma corrida armamentista em que o atacante tem vantagem estrutural”, alertou.

    Já Victoria Luz explicou que a invisibilidade desse “vilão digital” se deve ao anonimato dos autores e à sofisticação das manipulações: “Os ataques geralmente partem de perfis falsos, difíceis de rastrear, e se espalham numa velocidade impressionante, favorecidos pelos algoritmos das redes sociais. O público, muitas vezes, não consegue diferenciar um deepfake de um vídeo real, o que torna a ameaça ainda mais perigosa. Mesmo quando o conteúdo é removido, o estrago já foi feito, e parte da audiência continua desconfiando do artista”, observou.

    Mesmo com ferramentas que ajudam a monitorar e se defender, a inteligência artificial, quando usada de forma maliciosa, pode arranhar a imagem até de quem já tem uma reputação sólida. Os casos de Zezé Di Camargo e Chico Buarque mostram a importância de discutir regras, limites e educação digital, para que essa tecnologia não vire um “vilão invisível” capaz de prejudicar a vida de qualquer pessoa pública.