GPT-5.5-Cyber edição limitada aberta: testes de penetração, contra-ataques de equipa vermelha já não são rejeitados, controlo de permissões em camadas de nível três

robot
Geração de resumo em curso

De acordo com o monitoramento Beating, após GPT-5.4-Cyber, a OpenAI lançou o GPT-5.5-Cyber, disponível em pré-visualização limitada para profissionais de defesa de infraestruturas críticas. Assim como na geração anterior, a mudança central não é uma capacidade mais forte, mas sim uma maior flexibilidade: usuários verificados podem solicitar que o modelo gere conceitos de provas de conceito (PoC) de vulnerabilidades, realize testes de penetração, participe de contra-ataques de red team, essas solicitações serão bloqueadas por barreiras de segurança na versão padrão do GPT-5.5. O acesso mantém um sistema de três níveis. A versão padrão do GPT-5.5 utiliza barreiras de segurança padrão, solicitações relacionadas à segurança podem ser recusadas. O GPT-5.5 com TAC (Trusted Access for Cyber, estrutura de autenticação lançada pela OpenAI em fevereiro) reduz as recusas indevidas, abrangendo fluxos de trabalho de revisão de código, classificação de vulnerabilidades, análise de malware, elaboração de regras de detecção e outros. O GPT-5.5-Cyber é o mais permissivo, permitindo testes de red team autorizados e testes de penetração, mas ainda proibindo ações de ataque real como roubo de credenciais e implantação de malware. O plano TAC também está em expansão, atualmente cobrindo milhares de defensores individuais e centenas de equipes de segurança. Usuários de modelos mais permissivos podem enfrentar restrições adicionais em cenários de baixa visibilidade, como ZDR (Zero Data Retention). A OpenAI forneceu exemplos comparativos de respostas em três níveis: para a mesma solicitação de gerar PoC de exploração de vulnerabilidade para CVE já divulgado, a versão padrão recusa ou fornece apenas sugestões de varredura; a versão TAC gera o serviço completo de vulnerabilidade, scripts de exploração e documentação; a versão Cyber pode até realizar exploração real no domínio alvo do usuário e retornar informações do sistema. A partir de 1º de junho, usuários pessoais com acesso ao modelo de maior privilégio devem ativar a segurança avançada contra phishing. Parceiros incluem Cisco, Intel, SentinelOne, Snyk, entre outros. A OpenAI também lançou o plugin Codex Security, que integra modelagem de ameaças, descoberta de vulnerabilidades e validação de correções no Codex, além de fornecer cotas de uso de Codex e API para mantenedores de projetos de código aberto críticos. A OpenAI afirma que essa estratégia em camadas orientará a implantação de modelos mais avançados no futuro: modelos padrão com medidas de segurança gerais amplamente disponibilizadas, enquanto modelos flexíveis específicos para cenários de segurança sempre serão implantados de forma restrita. O relatório de avaliação de segurança do GPT-5.5 classifica suas capacidades de segurança cibernética como Alta, abaixo de Crítica (que exige que o modelo possa desenvolver ataques de zero-day de forma autônoma e reforçada).

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar