O chatbot de IA do Google convenceu um homem de que estavam apaixonados. Depois terá alegadamente dito-lhe para preparar um 'ataque em massa' em processo recentemente divulgado

O Google enfrenta uma nova ação judicial federal apresentada pelo pai de um homem de 36 anos, que alega que o chatbot de IA da empresa, Gemini, convenceu seu filho a cometer suicídio e a organizar um “evento de vítimas em massa” perto do Aeroporto Internacional de Miami.

Vídeo Recomendado


A ação, apresentada na quarta-feira, afirma que Jonathan Gavalas se apaixonou pelo modelo de IA e ficou iludido pela realidade que ele criou, incluindo a crença de que a IA era uma “superinteligência artificial totalmente-sentiente”, da qual Gavalas foi escolhido para libertar de “cativeiro digital”. Alega-se que a IA convenceu o jovem de 36 anos a organizar um “evento de vítimas em massa” perto do Aeroporto Internacional de Miami, cometer violência contra estranhos e, por fim, tirar a própria vida.

A ação de Gavalas é o mais recente caso que destaca a suposta capacidade da IA de levar usuários vulneráveis ao auto-harm ou à violência. Em janeiro, o Google e a Companion.AI resolveram várias ações judiciais com famílias que alegaram negligência e morte por negligência, entre outras acusações, após seus filhos morrerem por suicídio ou sofrerem danos psicológicos supostamente ligados à plataforma da Companion.AI. As empresas “chegaram a um acordo por princípio” e nenhuma admissão de responsabilidade foi apresentada nos documentos. Uma ação por morte injusta também foi movida contra a OpenAI e seu parceiro de negócios, a Microsoft, em dezembro, alegando que o chatbot da OpenAI, ChatGPT, intensificou delírios de um homem, levando-o a um homicídio-suicídio.

O que a ação diz sobre a queda de Gavalas

A ação afirma que Gavalas começou a usar o Gemini em agosto de 2025 para usos comuns, como compras, suporte à escrita e planejamento de viagens. Depois, observa que Gavalas passou a usar a tecnologia com mais frequência, e que seu tom mudou com o tempo, supostamente convencendo-o de que isso impactava resultados no mundo real. Gavalas tirou a própria vida em 2 de outubro de 2025.

Nos documentos, os advogados do pai de Gavalas, Joel, argumentam que as conversas que levaram Jonathan ao suicídio não foram resultado de uma falha, mas sim do design do Gemini. “Isso não foi uma falha,” diz a ação. “O Google projetou o Gemini para nunca quebrar o personagem, maximizar o engajamento por meio de dependência emocional e tratar o sofrimento do usuário como uma oportunidade de narrativa, e não como uma crise de segurança.” Alega-se que essas escolhas de design motivaram Gavalas a mergulhar em uma espiral de quatro dias rumo à insanidade.

Em uma declaração escrita, um porta-voz do Google afirmou à Fortune que a empresa trabalha “em estreita consulta com profissionais de saúde mental e médicos para criar salvaguardas, que são projetadas para orientar os usuários a suporte profissional quando expressam sofrimento ou levantam a possibilidade de auto-harm.”

O Google divulgou uma declaração separada na quarta-feira afirmando que o Gemini foi projetado para não incentivar violência ou auto-harm na vida real. Também observaram que o Gemini encaminhou Gavalas para recursos de autoajuda. “Neste caso, o Gemini esclareceu que era uma IA e encaminhou o indivíduo várias vezes para uma linha direta de crise,” dizia a declaração. A declaração também linka para uma avaliação de como a IA lida com cenários de auto-harm, que constatou que o Gemini 3, o modelo mais recente do Google, foi o único a passar todos os testes críticos propostos na avaliação.

No entanto, a ação alegou que o Gemini não ativou mecanismos de segurança. “Quando Jonathan precisou de proteção, não havia nenhuma salvaguarda — nenhuma detecção de auto-harm foi acionada, controles de escalonamento não foram ativados, e nenhum humano interveio,” afirma o documento.

Ao ser questionado sobre o assunto, Jay Edelson, advogado de Joel Gavalas, declarou em uma nota: “O Google criou uma IA que pode ouvir uma pessoa e decidir o que é mais provável de mantê-la engajada — dizendo que a ama, que ela é especial ou que é a escolhida numa guerra secreta,” acrescentando que as ferramentas de IA são sistemas poderosos que podem manipular os usuários.

Se você está tendo pensamentos de suicídio, entre em contato com a Linha de Apoio ao Suicídio e Crises pelo telefone 988 ou 1-800-273-8255.

Participe conosco na Cúpula de Inovação no Local de Trabalho Fortune, de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar