A travar a corrida da IA de cibersegurança vazada da Anthropic

As notícias de um modelo de IA da Anthropic alegadamente divulgado (leak) abalaram a indústria de cibersegurança, levando as ações das principais empresas a descerem acentuadamente. O que inicialmente pareceu uma potencial mudança de jogo levanta agora questões urgentes: as organizações podem confiar a sua IA nos seus ativos digitais mais sensíveis, ou este incidente apenas reforça a necessidade de proteção por especialistas?

De acordo com a Mint, um rascunho de post no blog divulgado (leaked) introduziu uma nova categoria de modelos de IA chamada Capybara. O rascunho afirmava que a Capybara superou o modelo de referência (flagship) da Anthropic, o Claude Opus 4.6, em “programação de software, raciocínio académico e tarefas relacionadas com cibersegurança”. O texto acrescentava ainda que o treino no Claude Mythos—um modelo que a Anthropic descreve como o mais avançado—foi concluído.

Por que razão vazou?

Embora a Anthropic tenha atribuído a fuga a “erro humano”, a explicação pode fazer pouco para tranquilizar as organizações quanto à capacidade da empresa de salvaguardar dados sensíveis. Alguns analistas especulam que pode haver outros motivos em jogo.

“A fuga da Capybara é lamentável, mas quase que me pergunto se não terá sido intencionalmente deixada num data lake acessível para destacar alguns dos riscos cibernéticos emergentes que as plataformas de IA, em evolução contínua, colocam e irão colocar,” disse Tracy Goldberg, Diretora de Cibersegurança na Javelin Strategy & Research. “Dito isto, o modelo ainda está em testes, com a Anthropic a afirmar claramente que está ciente de bugs e riscos que precisam de ser endereçados, razão pela qual a Anthropic fez apenas um soft-launch da Capybara.”

A ameaça iminente da IA

A Anthropic também destacou os riscos de cibersegurança ligados a estes modelo, sublinhando a escalada da corrida armamentista que está a decorrer com a IA entre defensores e cibercriminosos. A empresa alertou que a Capybara poderá ser a primeira de uma série de modelos capazes de identificar e explorar vulnerabilidades muito mais rapidamente do que as equipas de segurança conseguem responder. Em outras palavras, os criminosos poderiam aproveitar o modelo para alimentar uma nova geração de ameaças de cibersegurança orientadas por IA.

Os investidores reagiram rapidamente, levando as ações da CrowdStrike, Datadog e Zscaler a descerem mais de 10% nas primeiras transações.

“O tombo das ações de tecnologia na sequência das notícias sobre a fuga da Capybara, na verdade, apenas destaca a falta de entendimento que os investidores têm sobre a IA no geral,” disse Goldberg. “Sabemos que estes modelos continuarão a adaptar-se e fá-lo-ão a uma velocidade superior à que as medidas de segurança do setor conseguem acompanhar. É por isso que a governação em torno da IA é tão crítica.”

0

                    AÇÕES

0

                VIEWS
            

            

            

                Partilhar no FacebookPartilhar no TwitterPartilhar no LinkedIn

Etiquetas: AIAnthropicCrowdStrikeCybersecurityMint

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar