OpenAI lança GPT-5.4-Cyber, especialmente para profissionais de segurança, reduzindo a barreira de recusa, sendo necessário verificação de identidade para uso

robot
Geração de resumo em curso

ME News Notícias, 15 de abril (UTC+8), de acordo com a monitorização do Beating, a OpenAI lançou o GPT-5.4-Cyber, uma variante do modelo baseada no GPT-5.4, ajustada especificamente para cenários de cibersegurança. A principal diferença em relação à versão padrão é que ela reduz ativamente o limite de recusa de respostas relacionadas à segurança, permitindo que os profissionais de segurança executem operações que o modelo padrão normalmente recusaria, como engenharia reversa de binários, ou seja, analisar software compilado sem código fonte para verificar a presença de malware ou vulnerabilidades de segurança. Este modelo não está disponível para todos os utilizadores, mas é implementado em camadas através do programa “Acesso Confiável para Cibersegurança” (Trusted Access for Cyber, TAC) da OpenAI. O GPT-5.4-Cyber destina-se apenas aos utilizadores de nível mais alto, ou seja, fornecedores de segurança verificados, equipas de segurança empresarial e investigadores de segurança. A OpenAI também afirmou que os utilizadores com acesso a modelos mais permissivos podem estar sujeitos a restrições adicionais, especialmente em cenários de baixa visibilidade, como a retenção zero de dados (ZDR), com restrições mais severas ao aceder através de plataformas de terceiros. O próprio programa TAC está a expandir-se, tendo já alcançado milhares de defensores pessoais e centenas de equipas de segurança. Os utilizadores individuais podem verificar a sua identidade em chatgpt.com/cyber para obter acesso de nível básico com limites de recusa reduzidos, enquanto as empresas podem solicitar através de um representante da OpenAI. A OpenAI afirma que esta estratégia em camadas orientará os testes e a implementação de modelos mais avançados no futuro: modelos padrão com medidas de segurança gerais serão amplamente disponibilizados, enquanto modelos mais permissivos treinados especificamente para cenários de segurança serão sempre implementados de forma restrita. (Fonte: BlockBeats)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar