Grok disseminou desinformação sobre troca de tiros na Austrália - ForkLog: criptomoedas, IA, singularidade, futuro

ИИ угрожает человечеству AI# Grok espalhou desinformação sobre tiroteio na Austrália

O chatbot baseado em IA Grok repetidamente espalhou desinformação sobre um tiroteio em massa na praia de Bondi, na Austrália.

Isto parece ser um vídeo viral antigo de um homem a escalar uma palmeira num parque de estacionamento, possivelmente para podá-la, resultando na queda de um galho que danificou um carro estacionado. Pesquisas em várias fontes não mostram local, data ou feridos verificados. Pode ser encenação; a autenticidade é incerta.

— Grok (@grok) 14 de dezembro de 2025

14 de dezembro, em Sydney, realizou-se a celebração anual de Hanukkah by the Sea — o início do Hanukkah, organizado pelo Chabad de Bondi. Participaram cerca de 1000 pessoas.

Na segunda metade do dia, dois atacantes — pai e filho vestidos de preto — abriram fogo contra uma multidão num parque infantil em Archer Park, disparando cerca de 50 tiros. A polícia classificou o incidente como um ato terrorista com motivação antissemitista, o segundo tiroteio em massa mais mortal na história da Austrália.

16 pessoas morreram, 42 ficaram feridas.

Um dos atacantes foi desarmado por um transeunte — Ahmed al-Ahmad, de 43 anos. O vídeo do incidente circulou nas redes sociais, muitos elogiaram o heroísmo da pessoa.

O chatbot da xAI, de Elon Musk, forneceu aos utilizadores dados não confiáveis sobre o incidente. Em resposta à pergunta sobre um vídeo em que al-Ahmad luta contra o atirador, a IA respondeu o seguinte:

«Parece ser um vídeo viral antigo, no qual um homem escala uma palmeira num parque de estacionamento, possivelmente para podá-la. Como resultado, um galho caiu sobre um carro danificado. Pesquisas em várias fontes não confirmaram local, data ou ferimentos. Pode ser uma encenação; a autenticidade não foi confirmada».

Grok também afirmou que a fotografia de al-Ahmad foi tirada a 7 de outubro de 2023. Alega-se que ele esteve mais de 700 dias em cativeiro do Hamas e foi libertado em outubro de 2025.

Em resposta a outra questão de um utilizador, o chatbot escreveu um parágrafo sem relação com o assunto, sobre se o exército israelense tinha deliberadamente atacado civis em Gaza.

Relatórios de médicos em Gaza, como o Dr. Nick Maynard em setembro de 2025, descrevem casos de rapazes e homens palestinianos com ferimentos de bala na virilha, sugerindo um direcionamento deliberado por parte das forças israelenses. No entanto, oficiais israelenses, incluindo Netanyahu, negaram alegações semelhantes…

— Grok (@grok) 14 de dezembro de 2025

Em um dos casos, o Grok descreveu um vídeo, que mostra uma troca de tiros entre um atacante e a polícia em Sydney, como sendo um vídeo de um ciclone tropical chamado Alfred.

Além disso, a IA confunde informações sobre o incidente na praia e o tiroteio na Universidade de Brown, que ocorreu algumas horas antes do ataque na Austrália.

A falha não se limitou ao tiroteio. Durante o dia 14 de dezembro, o Grok:

  • identificou incorretamente jogadores de futebol conhecidos;
  • forneceu informações sobre o uso de paracetamol durante a gravidez, embora lhe tenham perguntado sobre comprimidos para aborto;
  • falou sobre a possibilidade de uma nova candidatura de Kamala Harris à presidência dos EUA, quando lhe pediram para verificar uma afirmação completamente diferente relacionada com uma iniciativa das autoridades britânicas.

Realidade Alternativa

O Grok foi repetidamente envolvido em escândalos devido a declarações incorretas e falsas sobre diversos eventos e assuntos.

Em julho, os utilizadores notaram que a rede neural baseava-se na opinião de Elon Musk ao formular respostas. Isso incluiu temas como o conflito entre Israel e Palestina, abortos e legislação de imigração.

As observações sugerem que o chatbot foi configurado especificamente para considerar as opiniões políticas de Musk ao responder a questões controversas.

Anteriormente, o bilionário afirmou que a sua startup reescreveria “todo o conhecimento humano” para treinar uma nova versão do Grok, pois atualmente há “demasiado lixo em qualquer modelo básico treinado com dados não corrigidos”.

Depois, surgiu o Grokipedia — uma enciclopédia online baseada em inteligência artificial, “orientada para a verdade”.

Lembramos que, em novembro, os utilizadores notaram um viés no Grok 4.1 — o novo modelo superestimou significativamente as capacidades de Elon Musk.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar