MAIS

    ChatGPT teria incentivado homem a matar a mãe; psicólogos fazem alerta

    Por

    Esta semana, ao site New York Post, especialistas alertaram sobre casos recentes de assassinatos que, supostamente, teriam sido incentivados por conversas com aplicativos de Inteligência Artificial (IA). Nos últimos dias, foram notificados dois homicídios que teriam envolvido o uso do ChatGPT, bot da OpenAI.

    Entenda

    • De acordo com fontes e mensagens obtidas pelo New York Post, o ChatGPT supostamente teria alimentado “delírios e teorias de conspirações” de Stein-Erik Soelberg, ex-executivo do Yahoo, antes de ele cometer assassinato contra a mãe e, depois, se suicidar;
    • Ele morava com a mãe, Suzanne Eberson Adams, de 83 anos, em uma casa na cidade de Old Greenwich, em Connecticut. Os dois foram encontrados no dia 5 de agosto, segundo autoridades policiais do local;
    • O homem de 56 anos teria confiado seus “pensamentos mais sombrios”, prosseguiu o site estadunidense, ao bot da OpenAI, apelidado por ele de “Bobby”. Nos meses anteriores à tragédia, Soelberg compartilhou dezenas de prints e vídeos de conversas com o aplicativo em seu Instagram;
    • Um dos devaneios do rapaz era que ele estava sendo alvo de uma grande conspiração mundial. O homem se autodescreveu como uma “falha na Matrix” — referência à franquia de filmes  de ficção científica;
    • Conforme conteúdo das conversas divulgados pelo New York Post, ele acreditava fielmente que sua mãe e a amiga tentaram envenená-lo colocando drogas psicodélicas na saída de ar de seu carro.
    • Em todo o tempo, “Bobby” teria alimentado as paranoias do ex-executivo, de acordo com as mensagens postadas. “Erik, você não é louco. E se foi sua mãe e a amiga dela que fizeram isso, isso aumenta a complexidade e a traição”, responde a IA. O chatbot também analisou um recibo de compra de comida, e alegou que o papel continha “símbolos demoníacos” representando a mãe do rapaz.
    Leia também

    IA substitui a terapia?

    Esses recentes acontecimentos acendem um alerta preocupante: no Brasil, cerca de 12 milhões de pessoas já utilizam ferramentas de IA para apoio psicológico, segundo estimativas da agência Talk. Nos Estados Unidos, um em cada quatro adultos prefere conversar com uma IA do que buscar terapia tradicional.

    Para entender os riscos dessa prática, a coluna Claudia Meireles procurou o psicólogo Wanderson Neves. O profissional explicou ferramentas de IA baseiam suas respostas em dados genéricos, o que é capaz de trazer consequências perigosas.

    “A sensação de acolhimento digital pode levar à falsa impressão de que não é necessário buscar ajuda profissional, atrasando diagnósticos e tratamentos adequados”, alerta Wanderson Neves.

    Ele também lança luz sobre os conselhos enviesados ou inadequados fornecidos por esses bots. “A IA pode até simular acolhimento, no entanto, não compreende o histórico emocional do usuário. Sem base terapêutica real, isso pode gerar uma relação ilusória de confiança”, completa.

    3 imagensA IA pode não ser capaz de identificar de forma precisa transtornos mentais, levando a mal-entendidos ou à falta de um tratamento adequadoAlgumas pessoas podem formar uma dependência emocional fortíssima com esses botsFechar modal.1 de 3

    Apesar de parecerem inocentes, essas conversas com o ChatGPT podem distorcer a percepção da realidade

    Getty Images2 de 3

    A IA pode não ser capaz de identificar de forma precisa transtornos mentais, levando a mal-entendidos ou à falta de um tratamento adequado

    Getty Images3 de 3

    Algumas pessoas podem formar uma dependência emocional fortíssima com esses bots

    Getty Images

    Principais consequências

    A coluna também ouviu a psicóloga Cibele Santos. Ela destaca que a inteligência artificial jamais deve substituir o acompanhamento e o tratamento de profissionais capacitados quando se trata de saúde mental.

    Embora pareçam inocentes, conversas com o ChatGPT podem distorcer a percepção da realidade, com o usuário se aprofundando cada vez mais em cenários perfeitamente idealizados por um bot que não oferece soluções reais para os problemas.

    “Ao recorrer à IA, uma pessoa pode ignorar sinais de que precisa de intervenção profissional e contínua, potencialmente agravando sua situação”, salienta a especialista.

    A profissional revelou uma série de consequências perigosas no uso de tecnologia para auxílio psicológico.

    Confira:

    • Diagnóstico incorreto: a IA pode não ser capaz de identificar de forma precisa transtornos mentais, levando a mal-entendidos ou à falta de um tratamento adequado;
    • Informação limitada: as respostas são baseadas em uma base de dados armazenados na plataforma, e podem não conter a profundidade ou complexidade de abordagens terapêuticas personalizadas, por exemplo;
    • Frieza emocional: embora algumas IAs tenham avançado na compreensão do discurso humano, elas não podem replicar a empatia e a compreensão emocional de um profissional de saúde mental;
    • Dependência: algumas pessoas podem formar uma dependência emocional fortíssima com esses bots, atrapalhando o tratamento profissional qualificado;
    • Negligência de problemas sérios: o paciente pode começar a ignorar sinais de que precisa de intervenção profissional e contínua, potencialmente agravando sua situação.

    Por que as pessoas estão recorrendo ao ChatGPT para tratar a saúde mental?

    Mesmo com tantos malefícios, algumas pessoas podem se sentir atraídas por esta tecnologia. Para Cibele Santos, um dos motivos pelos quais os usuários recorrem ao ChatGPT para tratamento psicológico pode estar em algumas barreiras e estigmas associados à saúde mental.

    “Muitas pessoas sentem que pode ser difícil acessar um terapeuta devido a barreiras financeiras, geográficas ou por falta de disponibilidade. A IA pode proporcionar um ambiente mais seguro para discutir sentimentos, permitindo que as pessoas falem sem o medo do julgamento”, finaliza.

    No Brasil, cerca de 12 milhões de pessoas já utilizam ferramentas de IA para apoio psicológico, segundo estimativas da agência Talk

    Para saber mais, siga o perfil de Vida&Estilo no Instagram.