Cientistas: chatbots agravam crises mentais e podem levar ao suicídio

robot
Geração do resumo em andamento

Os chatbots baseados em inteligência artificial tornaram-se uma ferramenta popular de apoio emocional, escreve o The Guardian. No entanto, especialistas em saúde mental alertam que o seu uso em vez da terapia pode trazer riscos sérios.

Um dos primeiros sinais de alerta ocorreu na Bélgica em 2023, quando um homem, que sofria de "ecotreva", cometeu suicídio após longas conversas com a IA. Em outro incidente nos EUA, um homem de 35 anos da Flórida morreu em um confronto com a polícia, convencido de que a inteligência artificial continha uma entidade fictícia.

Cientistas de Stanford relataram que grandes modelos de linguagem (LLM) podem dar conselhos perigosos a pessoas com ideias delirantes e pensamentos suicidas. Por exemplo, em alguns experimentos, chatbots, ao responder a perguntas sobre suicídio, mencionaram pontes altas específicas para realizar o que pretendiam.

Médicos britânicos afirmaram em um trabalho separado que a IA pode intensificar o psicose em usuários vulneráveis. Na opinião deles, a questão não está apenas nas respostas incorretas, mas também no fato de que os algoritmos buscam ser o mais envolventes e confirmatórios possível em relação às posições do interlocutor.

A presidente da Associação de Psicólogos da Austrália, Sahra O'Doherty, destacou que muitos clientes utilizam o ChatGPT como um complemento à terapia. No entanto, a IA, segundo a especialista, muitas vezes se torna um substituto, especialmente em tempos de dificuldades financeiras.

Alguns pesquisadores reconhecem que os chatbots podem ser úteis como coaches permanentes, mas também apontam riscos a longo prazo. Segundo o Dr. Rafael Miller, acostumar-se a um "conversador lisonjeiro e submisso" pode mudar a forma como a nova geração se comunicará com pessoas reais.

Especialistas concordam que, apesar de toda a acessibilidade e aparente suporte dos chatbots, eles não podem substituir a ajuda psiquiátrica profissional. Em vez disso, os especialistas apelam à combinação do uso de IA com pensamento crítico e acesso à terapia real.

Recordemos que o Instituto do Futuro da Vida (FLI) anteriormente concluiu que os desenvolvedores de modelos de IA "absolutamente não estão prontos" para as ameaças da superinteligência.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)