A travar a corrida da IA de cibersegurança vazada da Anthropic

Notícias sobre um modelo de IA da Anthropic vazado agitaram a indústria de cibersegurança, fazendo com que as ações de grandes empresas caíssem abruptamente. O que inicialmente parecia uma potencial mudança de jogo agora levanta questões urgentes: as organizações podem confiar na IA com os seus ativos digitais mais sensíveis, ou este incidente simplesmente reforça a necessidade de proteção especializada?

De acordo com a Mint, um rascunho de post no blog vazado apresentou um novo nível de modelos de IA chamado Capybara. O rascunho afirmava que o Capybara superou o modelo principal da Anthropic, Claude Opus 4.6, em “codificação de software, raciocínio acadêmico e tarefas relacionadas à cibersegurança.” Notou ainda que o treinamento em Claude Mythos—um modelo que a Anthropic descreve como o mais avançado até agora—foi concluído.

Por Que Vazou?

Enquanto a Anthropic atribuiu o vazamento a “erro humano,” a explicação pode fazer pouco para tranquilizar as organizações sobre a capacidade da empresa de proteger dados sensíveis. Alguns analistas especulam que poderiam existir outros motivos em jogo.

“O vazamento do Capybara é lamentável, mas quase me pergunto se foi intencionalmente deixado em um lago de dados acessível para destacar alguns dos riscos cibernéticos emergentes que as plataformas de IA em evolução contínua representam e representarão,” disse Tracy Goldberg, Diretora de Cibersegurança na Javelin Strategy & Research. “Dito isso, o modelo ainda está em teste, com a Anthropic afirmando claramente que está ciente de bugs e riscos que precisam ser abordados, razão pela qual a Anthropic lançou apenas uma versão preliminar do Capybara.”

A Ameaça Imediata da IA

A Anthropic também destacou os riscos de cibersegurança ligados a esses modelos, enfatizando a crescente corrida armamentista que está ocorrendo com a IA entre defensores e cibercriminosos. A empresa alertou que o Capybara poderia ser o primeiro de uma série de modelos capazes de identificar e explorar vulnerabilidades muito mais rapidamente do que as equipes de segurança podem responder. Em outras palavras, os criminosos poderiam aproveitar o modelo para impulsionar uma nova geração de ameaças de cibersegurança impulsionadas por IA.

Os investidores reagiram rapidamente, fazendo com que as ações da CrowdStrike, Datadog e Zscaler caíssem mais de 10% nas primeiras negociações.

“A queda das ações de tecnologia após a notícia sobre o vazamento do Capybara realmente destaca a falta de compreensão que os investidores têm sobre a IA no geral,” disse Goldberg. “Sabemos que esses modelos continuarão a se adaptar, e o farão a um ritmo mais rápido do que as medidas de segurança da indústria podem responder. É por isso que a governança em torno da IA é tão crítica.”

0

                    AÇÕES

0

                VISTAS
            

            

            

                Compartilhar no FacebookCompartilhar no TwitterCompartilhar no LinkedIn

Tags: IAAnthropicCrowdStrikeCibersegurançaMint

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar