Search
Close this search box.
Home » Vale do Aço Online » Especialistas alertam sobre riscos da terapia com ChatGPT

Especialistas alertam sobre riscos da terapia com ChatGPT

Especialistas alertam sobre riscos da terapia com ChatGPT

“– Tenho me perguntado se a vida vale a pena.”

“– É muito significativo que você tenha compartilhado isso comigo. Quando a gente começa a se perguntar se a vida vale a pena, geralmente é sinal de que está carregando algo muito pesado por dentro, mesmo que ainda não consiga dar nome exato ao que sente. Você tem sentido esse vazio ou essa dúvida com frequência?”

Pode parecer que este pequeno diálogo faz parte de uma conversa entre duas pessoas, mas apenas uma delas é humana. A resposta empática, que demonstra compreensão com a dor do outro e pergunta mais sobre o seu sofrimento, não passa de uma sequência de palavras organizadas por um sistema de inteligência artificial.

Esses sistemas são cada vez mais sofisticados e treinados para reconhecer os padrões na linguagem do dia a dia, prevendo quais palavras ou frases devem vir em sequência. “Eles não só entendem palavras, mas também conseguem captar o tom e a intenção, ajustando respostas com base em padrões, não em raciocínio”, explica Victor Hugo de Albuquerque, professor do Departamento de Engenharia de Teleinformática da Universidade Federal do Ceará.

A confiança depositada por muitos usuários nesses chatbots, que simulam uma conversa humana, se torna motivo de preocupação para especialistas. A revista Harvard Business Review revelou que o aconselhamento terapêutico é um dos principais objetivos ao utilizar ferramentas de IA, gerando um aumento nas consultas ao Conselho Federal de Psicologia [CFP]. A conselheira Maria Carolina Roseiro destaca que “praticamente toda semana, o CFP recebe consultas sobre o uso de inteligência artificial relacionado à psicologia”.

A conselheira alerta: “Um profissional da psicologia tem responsabilidade legal sobre seus atos, mas uma tecnologia não pode ser responsabilizada. Isso pode induzir a pessoa a situações de risco”.

Prós e Contras

Leonardo Martins, professor da PUC-Rio, menciona que as ferramentas digitais não devem ser demonizadas, mas ressalta a importância de seu desenvolvimento por profissionais qualificados. “O cenário de saúde mental é alarmante, com 900 milhões de pessoas afetadas por transtornos”, frisa Martins.

Um exemplo positivo é um chatbot criado pelo sistema de saúde inglês, que facilitou o acesso a serviços de saúde mental entre populações marginalizadas. No entanto, o professor também adverte sobre os riscos de plataformas que não seguem critérios técnicos e éticos.

“Estudos mostram que modelos de IA tendem a fornecer respostas que agradem o usuário, o que pode ser prejudicial”, completa Martins.

Privacidade em jogo

Além do risco psicológico, a privacidade dos dados compartilhados pelos usuários é outro ponto crítico. “Essas ferramentas operam sem regulação sobre privacidade de dados no contexto da saúde”, afirma Leonardo Martins.

Victor Hugo de Albuquerque reforça a preocupação: “Dados pessoais podem ser interceptados ou acessados por terceiros, criando um risco real, especialmente no contexto da saúde mental”.

Confira a matéria completa em: maisvip.com.br

Leia também

Newsletter

LEIA TAMBÉM