Anthropic lança o modelo de IA de segurança de topo, atualmente disponível apenas para testes por gigantes tecnológicos, ações de cibersegurança sobem em geral

robot
Geração de resumo em curso

A Anthropic está a entregar um modelo de IA mais poderoso e não divulgado a gigantes da tecnologia para testes, numa tentativa de lidar com potenciais ameaças de cibersegurança que sistemas de IA avançados poderão trazer; esta iniciativa gerou uma reação imediata no mercado, com o sector de cibersegurança a registar uma subida em resposta.

Na terça-feira, 7 de abril, a Anthropic anunciou o estabelecimento de um projeto conjunto da indústria chamado “Project Glasswing”, no qual empresas como a Amazon, a Apple, a Microsoft, a Cisco, entre outras, terão acesso ao seu novo modelo MythoS não divulgado, para identificar falhas nos seus próprios produtos e partilhar as descobertas com pares da indústria.

Preocupada com o facto de os hackers utilizarem este modelo para lançar ataques cibernéticos, a Anthropic afirma que, de momento, não existe um plano para publicar o MythoS ao público, e que vai definir salvaguardas de segurança para a tecnologia com base nos resultados do Project Glasswing.

Impulsionadas por esta notícia, as ações globais de cibersegurança subiram de forma generalizada na terça-feira. O ETF de cibersegurança da Global X subiu 0,9%, atingindo a sexta sessão consecutiva de fecho em alta.

A subida na Palo Alto Networks foi de 4,9%, a da CrowdStrike de 6,2%, a da Zscaler de 1,8% e a da Fortinet de 1,7%. Os analistas consideram que a iniciativa da Anthropic validou de forma clara o efeito de impulsionamento da tecnologia de IA na procura por software de cibersegurança.

Project Glasswing, para permitir que os defensores avancem um passo

A lógica central do projeto Glasswing consiste em identificar e colmatar atempadamente potenciais vulnerabilidades de cibersegurança antes de uma divulgação mais ampla de modelos de IA poderosos. As empresas participantes vão usar o modelo MythoS para explorar proativamente falhas nos seus próprios produtos e partilhar os resultados da investigação internamente na indústria.

Newton Cheng, responsável pela equipa de red teaming de cibersegurança de ponta na Anthropic, afirmou:

Acreditamos que isto não é apenas um problema da Anthropic; é um problema de toda a indústria. Quer empresas privadas, quer governos, precisam de o encarar. O que fazemos através do Glasswing é dar aos defensores a vantagem de reagir primeiro.

A análise considera que isto reflete, na realidade, uma preocupação crescente no sector tecnológico. À medida que as capacidades dos modelos de IA continuam a melhorar, criminosos e hackers poderão, com o auxílio de ferramentas deste tipo, fazer varrimentos a vulnerabilidades no código-fonte e ultrapassar as defesas de rede.

O concorrente da Anthropic, a OpenAI, já tinha igualmente salientado o crescimento das capacidades de rede dos seus modelos e lançou projetos-piloto orientados para colocar as ferramentas “nas mãos dos defensores” em primeiro lugar.

A Anthropic afirma que tem estado em contacto com responsáveis do Governo dos EUA sobre capacidades de segurança relacionadas com o MythoS, mas recusou revelar que instituições específicas estão envolvidas.

Newton Cheng indicou que o trabalho atual da empresa já foi feito em cooperação com a Agência de Cibersegurança e Segurança das Infraestruturas dos EUA (CISA) e o Instituto Nacional de Normalização e Tecnologia dos EUA (NIST).

Analista: o ambiente de ameaça da indústria está a virar a esquina

Analistas de Wall Street interpretaram, em geral, a iniciativa da Anthropic como um sinal positivo para a indústria de cibersegurança, considerando que este evento redefine o rumo da relação entre empresas de IA e fornecedores de segurança.

O Jefferies Financial Group considera que, para a Palo Alto Networks e a CrowdStrike, esta notícia é um “sinal inequívoco de colaboração e não de concorrência”, e indica que “o ambiente de ameaças está a virar a esquina”, entendendo que estas duas empresas plataformas “têm bom potencial para retornos acima do normal na emergente era da IA”.

A Stephens, uma empresa de serviços financeiros, disse que a notícia “valida a gravidade do que os modelos de IA mais fortes representam ao nível da cibersegurança, bem como a necessidade de colaboração e defesa conjunta entre fornecedores de cibersegurança e fornecedores de software crítico para enfrentar ameaças complexas”.

A Stephens prevê que as empresas vão depender cada vez mais de fornecedores de serviços de cibersegurança de confiança para proteger um ambiente heterogéneo de IA cada vez mais complexo.

A Bernstein, uma empresa de gestão de património privado, apontou, por outro lado, que “a Anthropic está claramente a dar elevada prioridade às questões de segurança do código e de utilização maliciosa do seu modelo”, e considerou que isso “não constitui, em termos básicos, um obstáculo para os fornecedores de cibersegurança, podendo até criar um vento favorável”.

Aviso de risco e termos de isenção de responsabilidade

        Há riscos no mercado; deve investir com prudência. Este artigo não constitui recomendação de investimento individual, nem considera objetivos específicos de investimento, situação financeira ou necessidades particulares de utilizadores. Os utilizadores devem considerar se quaisquer opiniões, pontos de vista ou conclusões neste artigo se adequam à sua situação específica. O investimento com base nisto é da inteira responsabilidade do investidor.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar