Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Prévia do Ultraman: O novo modelo de segurança da OpenAI GPT 5.5-Cyber será lançado em alguns dias, entrando em confronto com Claude Mythos
OpenAI anuncia o lançamento de um modelo dedicado à segurança cibernética GPT-5.5-Cyber, dirigido a especialistas na área de segurança de rede, enfrentando estratégias de defesa rigorosamente controladas pela Anthropic. O Ultraman previu que, em 2026, poderão ocorrer ataques cibernéticos que abalarão o mundo.
OpenAI GPT-5.5-Cyber será lançado em poucos dias
O CEO da OpenAI, Ultraman (Sam Altman), anunciou hoje (30/4) que, nos próximos dias, será lançado o GPT-5.5-Cyber, uma nova geração de modelo de segurança de rede, acessível a especialistas na área de segurança cibernética. Ele afirmou que a equipe colaborará com o ecossistema e o governo para encontrar formas confiáveis de acesso, garantindo a segurança de empresas e infraestruturas.
Neste mês de abril, Ultraman, em entrevista ao fundador do Axios, Mike Allen, previu que, em 2026, poderão ocorrer ataques cibernéticos que abalarão o mundo.
A comunidade continua discutindo se suas declarações refletem com precisão a ameaça real, enquanto recentemente a Anthropic lançou o modelo Claude Mythos, capaz de identificar vulnerabilidades de software de forma autônoma, o que intensificou ainda mais o debate, além de preocupar o governo dos EUA.
OpenAI planeja levar ferramentas de segurança cibernética a todos os níveis de governo
A divergência entre OpenAI e Anthropic quanto às estratégias de defesa reflete um debate mais amplo no campo da IA.
Segundo a CNN, até recentemente, o plano de confiança e acesso à segurança de rede da OpenAI era limitado a poucos parceiros, e está sendo expandido para todos os níveis governamentais sob revisão, desde agências federais até governos locais, permitindo que unidades autorizadas usem versões especiais de modelos com menos restrições de proteção.
Sasha Baker, chefe de políticas de segurança nacional da OpenAI, afirmou que a empresa não acredita que deva ser a única a decidir sobre permissões de ferramentas e prioridades máximas.
Divergências entre os dois gigantes de IA: democratização versus controle rigoroso
O modelo Mythos da Anthropic possui capacidade de identificar e explorar vulnerabilidades de software. Com base nos potenciais riscos, a empresa promove sua implementação de forma gradual através do programa de controle rigoroso Glass Wing, em parceria com representantes do governo.
No que diz respeito à segurança, a Anthropic defende uma abordagem cautelosa e lenta, para reduzir a corrida armamentista provocada pelo uso de IA por hackers, enquanto a OpenAI planeja uma abertura total dos modelos.
Baker afirmou que é necessário democratizar a defesa de rede para beneficiar todos, e que limitar o acesso às 50 maiores empresas da revista Forbes não é suficiente. Ela destacou que essa é uma oportunidade para as empresas corrigirem vulnerabilidades antes que as ferramentas caiam nas mãos de indivíduos mal-intencionados.
Fonte da imagem: Getty Images/ANTHONY WALLACE/AFP Chefe de políticas de segurança nacional da OpenAI, Sasha Baker
OpenAI trabalha com os EUA na elaboração de planos de ação para a era da inteligência
Recentemente, a OpenAI realizou um workshop em Washington, onde Baker revelou que participantes incluíram representantes do Pentágono, do White House, do Departamento de Segurança Interna dos EUA e da Agência de Pesquisa de Defesa, que testaram as capacidades de segurança do novo modelo, com previsão de retorno a Washington em algumas semanas para coletar feedback.
Além disso, a OpenAI está lançando um plano de ação para coordenar a defesa cibernética na era da inteligência, envolvendo governos e empresas. A empresa planeja, nos próximos dias, implementar novas funcionalidades de segurança nas contas do ChatGPT e fornecer ferramentas para ajudar o público a melhorar seus hábitos de segurança na internet.
Demônio ou salvador? Gigantes da IA apostam na crise do apocalipse
No entanto, muitas empresas de IA frequentemente alertam sobre possíveis crises apocalípticas, o que tem gerado questionamentos na academia.
Em entrevista à BBC, a professora de ética da Universidade de Edimburgo, Shannon Vallor, afirmou que a estratégia de marketing de medo das empresas de IA já é eficaz, ao retratar seus produtos como capazes de acabar com o mundo, sem prejudicar ou limitar seu poder. Isso faz com que o público acredite que a única esperança de proteção está nessas próprias empresas.
Ela disse que utopia e apocalipse são duas faces da mesma moeda: “Ambas as situações são de escala excessiva e carregadas de mitologia, levando as pessoas a acreditarem que mecanismos de regulação, governança ou justiça não podem atuar de forma eficaz.”
Isso faz com que as pessoas pensem que tudo o que podem fazer é esperar e ver se essas tecnologias acabarão por transformar-se em demônios que destruíram a civilização, ou em salvadores que nos trarão uma utopia. Até o nome “Mythos” (mito) parece ter sido criado para evocar uma reverência quase religiosa.
Leitura adicional:
A era da IA exige novas políticas! OpenAI propõe 4 grandes iniciativas: semana de três dias, imposto sobre robôs