A Anthropic está a ser avaliada com um valor implícito pré-IPO de 1,4 biliões de dólares nos mercados on-chain

A Anthropic está agora avaliada em um valor implícito pré-IPO de 1,4 trilhão de dólares nos mercados on-chain, o nível mais alto até agora para o criador do Claude antes de qualquer listagem na bolsa de valores. O último número aumentou 40% em 24 dias, com base em dados de negociação pré-IPO vinculados a instrumentos listados na Jupiter.

Os mesmos dados colocam o valor implícito da Anthropic em alta de 1.067% desde outubro de 2025. Os instrumentos pré-IPO na Jupiter são respaldados 1:1 por exposição a SPV, portanto as negociações estão sendo usadas como uma leitura ao vivo de onde os investidores acham que a Anthropic pode chegar quando finalmente abrir capital.

Como a empresa ainda é privada, isso deixa produtos de mercado privado tokenizados e on-chain fazendo a descoberta de preço antes que a Wall Street tenha seu momento de roadshow de IPO limpo.

Negociantes onchain avaliam a Anthropic como uma ação de IA de um trilhão de dólares antes do seu IPO

A estimativa mais recente surge após relatos de que as receitas anuais da Anthropic explodiram de 100 milhões de dólares em 2023 para 45 bilhões agora. É um aumento massivo para a empresa em um único ano civil. Nos últimos doze meses, a receita anualizada da Anthropic aumentou 1.400%.

É uma das razões pelas quais investidores pré-IPO comparam a Anthropic a grandes empresas de tecnologia listadas publicamente antes de as ações comuns estarem disponíveis para o público em geral.

Os investidores também observam como a Anthropic transforma seu assistente de IA Claude em aplicações comerciais. Segundo a FIS, Claude alimenta o Agente de IA de Crimes Financeiros para equipes de conformidade envolvidas em investigações de lavagem de dinheiro. A aplicação foi projetada para permitir que especialistas em conformidade concluam seu trabalho em minutos, em vez de horas.

O sistema extrai evidências de plataformas bancárias e analisa atividades de contas de clientes contra o banco de dados de esquemas conhecidos de lavagem de dinheiro, priorizando casos suspeitos para investigação. Coloca a IA em um ambiente financeiro altamente sensível, onde velocidade, transparência e rastreabilidade vêm em primeiro lugar. Não há espaço para brincadeiras com informações pessoais dos clientes.

“Segundo a FIS, BMO e Amalgamated Bank estarão entre as primeiras instituições a implantar o agente, com uma disponibilidade mais ampla planejada para o segundo semestre de 2026,” observou a FIS.

A FIS também destacou que a equipe de IA aplicada da Anthropic, assim como engenheiros de implantação avançada, estão participando do projeto. Eles auxiliam a FIS no design da plataforma e na construção de outros agentes usando a tecnologia Claude. O produto combina a plataforma bancária da FIS, dados de transações, sistemas de conformidade com modelos de IA Claude. “Os dados dos clientes sempre permanecerão dentro dos sistemas controlados pela FIS,” afirmou a FIS.

“Além de atender aos altos requisitos regulatórios de conformidade, a FIS escolheu o Claude como a melhor opção para o nosso Agente de IA de Crimes Financeiros porque ele conseguiu raciocinar com precisão em investigações complexas, explicar suas descobertas e operar com segurança dentro de um fluxo de trabalho regulatório,” disse Jonathan Pelosi, chefe de Serviços Financeiros na Anthropic.

OpenAI abre seu modelo cibernético para a Europa enquanto a Anthropic mantém Mythos sob revisão

Enquanto a Anthropic enfrenta sua própria batalha de acesso à IA cibernética na Europa, a OpenAI anunciou na segunda-feira que dará acesso ao GPT-5.5-Cyber, uma versão cibernética do seu modelo de IA mais recente, aos países da UE. Ao contrário do GPT-5.5, a OpenAI ainda não forneceu uma prévia semelhante ao modelo Mythos mais recente da Anthropic.

A OpenAI afirmou que empresas europeias, governos, agências de cibersegurança e instituições da UE, como o Escritório de IA da UE, terão acesso ao modelo. Começará com acesso de pré-visualização para equipes de cibersegurança avaliadas pela OpenAI. A atualização ocorre um mês após a Anthropic lançar o Mythos, criando temores sobre ataques cibernéticos a sistemas de software cruciais.

Thomas Regnier, da Comissão Europeia, disse: “Estamos satisfeitos com a transparência da OpenAI em sua intenção de permitir o acesso ao seu novo modelo à Comissão.” Thomas Regnier confirmou que a OpenAI e a Comissão da UE discutiram o assunto em reuniões anteriores. Além disso, continuarão as discussões nesta semana. “Dessa forma, podemos monitorar o lançamento do modelo e abordar quaisquer preocupações de segurança,” afirmou.

No entanto, segundo Thomas Regnier, a UE também está em contato com a Anthropic; contudo, as discussões estão em estágio diferente das com a OpenAI. “Foram realizadas quatro ou cinco reuniões com a Anthropic; no entanto, as discussões ainda estão em um estágio diferente da solução apresentada pela OpenAI.”

George Osborne, chefe do país na OpenAI, disse que, “Um laboratório de IA como o nosso não pode julgar unilateralmente se um sistema é seguro, pois depende de parceiros confiáveis operando em conjunto.” George Osborne acrescentou que “é hora de a mais recente tecnologia de IA cibernética estar disponível para os muitos defensores da Europa, e não apenas para alguns poucos selecionados.”

Segundo ele, o Plano de Ação de Cibersegurança da UE fará parceria com formuladores de políticas europeus, instituições e organizações empresariais para acesso a ferramentas para defesa e segurança pública.

Não leia apenas notícias de criptomoedas. Entenda-as. Inscreva-se na nossa newsletter. É grátis.

JUP-4,88%
FIS2,72%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar