Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Sobre o que realmente trata a saga de segurança da IA da Anthropic
O que é que o processo de segurança da IA da Anthropic é realmente sobre
Análise de Lisa Eadicicco, David Goldman, CNN
Qui, 26 de fevereiro de 2026 às 22:48 GMT+9 5 min de leitura
Cofundador e CEO da Anthropic, Dario Amodei. - Chance Yeh/Getty Images
A Anthropic chegou a uma encruzilhada familiar para uma empresa tecnológica em crescimento: como escalar sem comprometer os princípios que a tornaram diferente.
A empresa de IA fez da segurança o seu princípio orientador. Defendeu a regulamentação da IA e pediu proteções para os trabalhadores à medida que a IA substitui algumas tarefas humanas. A Anthropic tem trabalhado arduamente para transmitir uma mensagem específica aos clientes: Somos os bons.
No entanto, as salvaguardas impostas pela própria empresa para construir essa marca podem estar agora a formar obstáculos para o seu sucesso.
Esta semana, o Pentágono deu à Anthropic um ultimato: ou elimina as suas restrições éticas para a IA ou perde o seu contrato de 200 milhões de dólares e fica numa lista negra. Em separado, também esta semana, a Anthropic afrouxou a sua política central de segurança para permitir à empresa mais liberdade para crescer num mercado competitivo e em rápida mudança.
Ainda não está claro como é que esta semana irá correr para os negócios da Anthropic e para a sua reputação, mas as suas decisões terão consequências.
Sabemos isso, porque o dilema da Anthropic é um dilema familiar no setor tecnológico. Muitas empresas divulgam os seus valores e a sua moral, apenas para se depararem com decisões difíceis que as obrigam a escolher entre o crescimento e a manutenção desses ideais.
A Anthropic talvez queira tomar nota.
OpenAI e o fim de semana de Sam
Sam Altman, CEO da OpenAI. - Andrew Harnik/Getty Images
Há pouco mais de dois anos, o maior rival da Anthropic, a OpenAI, lidou com a contestação em torno do crescimento à custa da segurança.
Numa das mais bizarras peças de teatro de sala de reuniões na história corporativa, a principal rival da Anthropic, a OpenAI, despediu abruptamente o seu fundador e CEO, Sam Altman, numa sexta-feira de novembro de 2023, apenas para o readmitir na terça-feira seguinte.
A saga envolveu uma estrutura corporativa única que colocou a empresa com fins lucrativos, em rápido crescimento, por trás do ChatGPT, sob a tutela de um conselho sem fins lucrativos. Quatro anos antes, a empresa tinha inscrito no seu estatuto que a OpenAI permanecia “preocupada” com a capacidade da IA de “provocar mudanças rápidas” para a humanidade. Os responsáveis da empresa temiam que Altman estivesse a avançar tão depressa que arriscava minar a segurança que a empresa se comprometeu a fornecer.
Mas despedir Altman levou a ameaças de uma saída em massa de funcionários — uma situação insustentável que poderia ter levado à destruição da empresa. Por isso, o conselho readmitiu Altman apenas dias depois. O conselho dissolveu-se pouco tempo depois, e Altman alterou a estrutura corporativa no ano passado para se libertar do seu supervisor sem fins lucrativos.
Desde então, a OpenAI tem lutado para equilibrar rapidez e segurança, enfrentando vários processos judiciais que alegam que os seus produtos convenceram jovens a magoarem-se. A OpenAI nega essas alegações.
Apple e o atirador de San Bernardino
CEO da Apple, Tim Cook. - Godofredo A. Vásquez/AP
Syed Farook e a sua mulher, Tashfeen Malik, assassinaram 14 pessoas no Inland Regional Center, em San Bernardino, Califórnia, em dezembro de 2015. O casal morreu mais tarde num tiroteio com a polícia.
Os investigadores obtiveram autorização para recuperar dados do iPhone de Farook, mas não conseguiram aceder lá dentro porque estava bloqueado com um código de acesso. Um juiz da Califórnia ordenou à Apple que ajudasse os agentes da lei a aceder ao telefone.
Mas numa carta aberta, assinada pelo CEO da Apple, Tim Cook, a empresa recusou. Cook disse que a ordem do juiz abriria “uma porta dos fundos para o iPhone”, o que era “algo que consideramos demasiado perigoso para criar”. A empresa afirmou não ter simpatia pelos terroristas, mas cumprir a ordem daria às autoridades governamentais “poder para aceder ao dispositivo de qualquer pessoa para capturar os seus dados”.
A Apple recebeu enorme reação negativa pela sua decisão — incluindo por parte do então candidato presidencial Donald Trump. Mas desde então, ganhou amplos elogios por se manter firme em defesa da privacidade dos seus clientes, que desde então se tornou sinónimo da marca da empresa.
A empresa agora promove de forma rotineira que não venderá dados dos clientes nem armazenará certas informações pessoais nos seus servidores, tentando diferenciar-se do Google, um dos seus principais concorrentes.
Etsy vs. vendedores independentes
A sede da Etsy em Nova Iorque. - Michael M. Santiago/Getty Images
Quando o império de comércio eletrónico da Amazon começou apenas a descolar no início dos anos 2000, a Etsy surgiu como uma alternativa inovadora onde os compradores podiam encontrar produtos artesanais únicos.
Mas fez uma alteração controversa em 2013 que ameaçou desafiar essa ética. Alargou a sua política para permitir que os vendedores usem fabricantes e terceirizem operações, levantando preocupações na altura de que já não proporcionaria um terreno de jogo justo para pequenos vendedores independentes sem os recursos para contratar pessoal.
Ainda assim, essa decisão foi fundamental para a Etsy expandir para o marketplace em que está hoje, que agora oferece mais de 100 milhões de itens à venda e cerca de 8 milhões de vendedores ativos.
“Do ponto de vista dos negócios, correu bem para a Etsy, mas foi um momento difícil para a empresa”, disse Arun Sundararajan, diretor do Fubon Center for Technology, Business and Innovation da NYU Stern.
O que vem a seguir para a Anthropic
A app de IA Claude da Anthropic. - Michael M. Santiago/Getty Images
Estes estudos de caso oferecem à Anthropic um roteiro de cautela.
Agora, a maior consequência mais imediata para a Anthropic é provavelmente a forma como os clientes e potenciais clientes valorizam e confiam na empresa, disse Owen Daniels, diretor adjunto de análise do Center for Security and Emerging Technology da Georgetown.
A Anthropic disse que as suas medidas de segurança impostas por si próprias foram sempre pensadas para ser flexíveis e sujeitas a mudança à medida que a IA evolui. Comprometeu-se a ser transparente sobre a segurança no futuro e disse que, na verdade, não tinha grande escolha: se deixasse de crescer, rivais que não valorizam tanto a segurança poderiam avançar e tornar a IA “globalmente menos segura”.
Ainda não está claro o que vai acontecer com a mudança da Anthropic, porque os riscos existenciais da IA ainda são em grande parte “conceptuais”, assinalou Sundararajan.
Ele disse que ficaria céptico em relação a qualquer especialista que chamasse a isto um momento importante para a segurança da IA. Mas pode ser um momento importante para a empresa.
“Recuar aqui de uma promessa específica de segurança por parte da Anthropic, para mim, tem mais a ver com a Anthropic e menos com o futuro da IA”, disse.
Para mais notícias e boletins da CNN, crie uma conta em CNN.com
Termos e Política de Privacidade
Painel de Privacidade
Mais informações