Portal Estado do Acre Notícias

ChatGPT teria incentivado homem a matar a mãe; psicólogos fazem alerta

ChatGPT teria incentivado homem a matar a mãe; psicólogos fazem alerta

Esta semana, ao site New York Post, especialistas alertaram sobre casos recentes de assassinatos que, supostamente, teriam sido incentivados por conversas com aplicativos de Inteligência Artificial (IA). Nos últimos dias, foram notificados dois homicídios que teriam envolvido o uso do ChatGPT, bot da OpenAI.

Entenda

Leia também

IA substitui a terapia?

Esses recentes acontecimentos acendem um alerta preocupante: no Brasil, cerca de 12 milhões de pessoas já utilizam ferramentas de IA para apoio psicológico, segundo estimativas da agência Talk. Nos Estados Unidos, um em cada quatro adultos prefere conversar com uma IA do que buscar terapia tradicional.

Para entender os riscos dessa prática, a coluna Claudia Meireles procurou o psicólogo Wanderson Neves. O profissional explicou ferramentas de IA baseiam suas respostas em dados genéricos, o que é capaz de trazer consequências perigosas.

“A sensação de acolhimento digital pode levar à falsa impressão de que não é necessário buscar ajuda profissional, atrasando diagnósticos e tratamentos adequados”, alerta Wanderson Neves.

Ele também lança luz sobre os conselhos enviesados ou inadequados fornecidos por esses bots. “A IA pode até simular acolhimento, no entanto, não compreende o histórico emocional do usuário. Sem base terapêutica real, isso pode gerar uma relação ilusória de confiança”, completa.

3 imagensFechar modal.1 de 3

Apesar de parecerem inocentes, essas conversas com o ChatGPT podem distorcer a percepção da realidade

Getty Images2 de 3

A IA pode não ser capaz de identificar de forma precisa transtornos mentais, levando a mal-entendidos ou à falta de um tratamento adequado

Getty Images3 de 3

Algumas pessoas podem formar uma dependência emocional fortíssima com esses bots

Getty Images

Principais consequências

A coluna também ouviu a psicóloga Cibele Santos. Ela destaca que a inteligência artificial jamais deve substituir o acompanhamento e o tratamento de profissionais capacitados quando se trata de saúde mental.

Embora pareçam inocentes, conversas com o ChatGPT podem distorcer a percepção da realidade, com o usuário se aprofundando cada vez mais em cenários perfeitamente idealizados por um bot que não oferece soluções reais para os problemas.

“Ao recorrer à IA, uma pessoa pode ignorar sinais de que precisa de intervenção profissional e contínua, potencialmente agravando sua situação”, salienta a especialista.

A profissional revelou uma série de consequências perigosas no uso de tecnologia para auxílio psicológico.

Confira:

Por que as pessoas estão recorrendo ao ChatGPT para tratar a saúde mental?

Mesmo com tantos malefícios, algumas pessoas podem se sentir atraídas por esta tecnologia. Para Cibele Santos, um dos motivos pelos quais os usuários recorrem ao ChatGPT para tratamento psicológico pode estar em algumas barreiras e estigmas associados à saúde mental.

“Muitas pessoas sentem que pode ser difícil acessar um terapeuta devido a barreiras financeiras, geográficas ou por falta de disponibilidade. A IA pode proporcionar um ambiente mais seguro para discutir sentimentos, permitindo que as pessoas falem sem o medo do julgamento”, finaliza.

No Brasil, cerca de 12 milhões de pessoas já utilizam ferramentas de IA para apoio psicológico, segundo estimativas da agência Talk

Para saber mais, siga o perfil de Vida&Estilo no Instagram.

Sair da versão mobile