A Anthropic criou o modelo de IA mais avançado de sempre, mas não se atreve a lançá-lo…

robot
Geração de resumo em curso

_Original | Odaily Boletim Diário do Planeta ( @OdailyChina) _

Autor|Azuma(@azuma_eth

8 de abril, a empresa de desenvolvimento de IA por trás da Claude, a Anthropic, anunciou oficialmente que vai lançar um novo programa chamado “Asas de Vidro” (Project Glasswing). Este plano será impulsionado em conjunto com várias grandes empresas, incluindo a Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia e Palo Alto Networks.

A Anthropic afirma que, trata-se de uma medida urgente destinada a proteger o software mais crítico do mundo; todas as partes vão usar em conjunto a versão Mythos Preview para descobrir e corrigir potenciais falhas nos sistemas que o mundo utiliza para sobreviver.

O que se entende por Mythos é o próximo modelo de IA de geração da Anthropic em desenvolvimento. É o primeiro modelo na história da humanidade em que o total de parâmetros ultrapassa a ordem dos mil biliões (em comparação, os modelos dominantes no mercado atualmente têm entre alguns biliões de parâmetros e 1 bilião). Os custos de treino atingiram um valor espantoso de 10 mil milhões de dólares. Em comparação com o modelo mais forte da Claude até ao momento, o Opus 4.6, o Mythos obtém pontuações substancialmente mais altas em testes como codificação de software, raciocínio académico e segurança informática.

Os rumores sobre o Mythos já circulavam na semana anterior pelo mercado. Na altura, a preocupação geral era: — o Mythos, que tem capacidades especializadas em segurança informática, poderá afetar o atual panorama de ataque e defesa da segurança? Se for explorado de forma maliciosa, isso causará acidentes de segurança em maior escala? A Odaily também já tinha noticiado isto e chegou a discutir com especialistas de segurança da indústria, incluindo o fundador da SlowMist, Yu Xuan (Yu Xuan), os possíveis impactos sobre o setor de segurança do mercado de criptomoedas (ver “Entrevista exclusiva da Odaily a Yu Xuan (Yu Xuan): Vazamento de novo modelo de nível ‘bomba atómica’ da Anthropic — como afeta o ataque e a defesa da segurança em cripto?”). Contudo, naquela altura, a Anthropic não tinha reconhecido publicamente a existência do Mythos; por isso, a informação relevante continuava limitada.

8 de abril, com o anúncio do programa “Asas de Vidro”, a Anthropic também divulgou mais detalhes sobre o Mythos. Com base nos casos experimentais publicados pela própria Anthropic, a empresa não tem exagerado as capacidades do Mythos. O ponto é que a própria empresa nem sequer se atreve a publicar diretamente o modelo, com receio de que um grupo de hackers o explore de forma maliciosa. Em vez disso, planeia primeiro deixar as grandes empresas testarem e verificarem através do programa “Asas de Vidro”, corrigindo atempadamente potenciais vulnerabilidades.

Mythos a mostrar força: em apenas algumas semanas, descobriu milhares de “zero-days”

Ao falar da força do Mythos, a Anthropic foi direta ao afirmar que o nascimento do modelo significa que um facto severo já chegou — as capacidades de codificação dos modelos de IA atingiram níveis muito elevados; ao descobrir e explorar falhas de software, eles conseguem, quase, ultrapassar todas as pessoas, exceto os humanos mais experientes.

De acordo com a divulgação da Anthropic, em apenas algumas semanas, a Anthropic, usando o Mythos, identificou milhares de vulnerabilidades zero-day (ou seja, falhas que nem os próprios programadores de software tinham detetado até então). Muitas delas são vulnerabilidades de alto risco. Os problemas abrangem todos os sistemas operativos principais e todos os navegadores principais, e também afetam uma série de outros softwares críticos.

A Anthropic apresentou alguns casos particularmente representativos:

  • O Mythos descobriu uma vulnerabilidade com 27 anos no OpenBSD. Este sistema é conhecido há muito tempo pela sua “segurança extrema”, sendo amplamente usado em infraestruturas críticas como firewalls. Contudo, esta vulnerabilidade permite que um atacante faça o sistema colapsar remotamente de forma direta;
  • Nas bibliotecas de processamento de vídeo FFmpeg, usadas por uma grande quantidade de software, o Mythos encontrou uma vulnerabilidade com 16 anos. O código onde está o problema foi acionado por testes automatizados mais de 5 milhões de vezes, mas nunca tinha sido detetado;
  • O Mythos também consegue encadear automaticamente várias vulnerabilidades no kernel Linux, elevando permissões desde permissões de utilizador normal até ao controlo total do servidor.

Ainda mais preocupante é que, segundo a Anthropic, a maioria destas vulnerabilidades foi “descoberta de forma autónoma e construída a partir do caminho de exploração” pelo Mythos com quase nenhum tipo de intervenção humana. Isto poderá significar que a IA já começou a adquirir capacidades automatizadas de ataque e defesa semelhantes às de equipas de topo de hackers.

Em termos de benchmarks de avaliação, o Mythos mostra também uma evolução com uma diferença qualitativa face ao Opus 4.6. Por exemplo, num teste de reprodução de vulnerabilidades de segurança informática, o Mythos atinge 83,1%, enquanto o Opus 4.6 fica em 66,6%; em vários testes de codificação e raciocínio, o Mythos também conseguiu obter uma vantagem significativa.

Possivelmente é exatamente porque as capacidades do Mythos são demasiado fortes que a Anthropic não escolheu disponibilizar o modelo diretamente. Em vez disso, lançou primeiro o programa “Asas de Vidro”, para que toda a Internet possa “reforçar” a segurança com antecedência.

Através deste programa, a Anthropic vai abrir antecipadamente aos participantes do plano uma versão do Mythos Preview, para que possam descobrir e corrigir vulnerabilidades ou fraquezas nos respetivos sistemas base — com foco nas tarefas de deteção de vulnerabilidades locais, testes de caixa-preta a programas binários, reforço de segurança de terminais e testes de intrusão ao sistema.

A Anthropic também se compromete a fornecer aos participantes do programa um total de 100 milhões de dólares em créditos de utilização do modelo, para apoiar o uso em toda a fase de pré-visualização de investigação. A partir daí, a versão Mythos Preview será disponibilizada aos participantes ao preço de 25 dólares / 125 dólares por cada milhão de tokens de entrada / saída (os participantes também podem aceder ao modelo através da Claude API, Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry). Para além dos créditos de utilização do modelo, a Anthropic irá ainda, através da Linux Foundation, doar 2,5 milhões de dólares à Alpha-Omega e à OpenSSF, e 1,5 milhões de dólares à Apache Software Foundation, para ajudar os mantenedores de software de código aberto a responder ao ambiente de segurança em constante mudança.

A Anthropic pretende alargar progressivamente a área de participação no “Asas de Vidro” e continuar a avançar durante vários meses, partilhando experiências o máximo possível, para que outras organizações possam aplicar essas experiências à sua própria construção de segurança. Dentro de 90 dias, a Anthropic irá publicar relatórios com os progressos em etapas, incluindo as vulnerabilidades já corrigidas e as medidas de melhoria de segurança que possam ser divulgadas.

A tecnologia só pode continuar a evoluir, mas também não é preciso preocupar-se demasiado

A IA está a alterar de forma irreversível o mundo que conhecemos, incluindo a área de segurança informática que é o foco deste artigo. À medida que os limiares para descobrir e explorar vulnerabilidades baixam drasticamente, as pessoas não deixam de se preocupar: será que a IA se tornará a lâmina nas mãos de atores maliciosos, ameaçando o equilíbrio atual da segurança informática? (PS: para utilizadores de criptomoedas que precisem de colocar dinheiro verdadeiro em sistemas de carteiras ou em protocolos na cadeia, esta preocupação é particularmente forte.)

Face a este problema, a Anthropic acredita que “ainda há motivos para mantermos o otimismo”. A razão pela qual os modelos de IA são perigosos é que têm a capacidade de causar danos nas mãos de indivíduos ilegais; ao mesmo tempo, a IA também possui um valor incomensurável na descoberta e correção de falhas importantes em software e no desenvolvimento de novo software mais seguro.

É de esperar que, nos próximos anos, as capacidades da IA continuem a evoluir rapidamente. Mas sempre que surgirem novos métodos de ataque, também surgirão, em simultâneo, novos mecanismos de defesa. A atualização tecnológica é inevitável, mas isso não significa que o risco vá necessariamente fugir ao controlo — desde que o sistema de defesa evolua em paralelo, e até seja possível usar a IA para construir uma “muralha” de segurança mais robusta.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar