Anthropic se está valorando en un valor implícito previo a la oferta pública inicial de 1.4 billones de dólares en los mercados en cadena

Anthropic ahora está siendo valorada en 1.4 billones de dólares en valor implícito previo a la IPO en los mercados en cadena, el nivel más alto hasta ahora para el creador de Claude antes de cualquier cotización en bolsa. La cifra más reciente ha aumentado un 40% en 24 días, según datos de negociación previa a la IPO vinculados a instrumentos listados en Jupiter.

Los mismos datos sitúan el valor implícito de Anthropic en un aumento del 1,067% desde octubre de 2025. Los instrumentos previos a la IPO en Jupiter están respaldados 1:1 por exposición a SPV, por lo que las operaciones se utilizan como una lectura en vivo de hacia dónde creen los inversores que podría llegar Anthropic cuando finalmente salga a bolsa.

Dado que la empresa todavía es privada, eso deja que los productos privados tokenizados y en cadena hagan la descubrimiento de precios antes de que Wall Street tenga su momento limpio de roadshow de IPO.

Los operadores en cadena valoran a Anthropic como una acción de IA de un billón de dólares antes de su IPO

La última estimación llega tras informes de que los ingresos anuales de Anthropic han explotado de 100 millones de dólares en 2023 a 45 mil millones ahora. Es un aumento masivo para la firma en un solo año calendario. En los últimos doce meses, los ingresos anualizados de Anthropic aumentaron un 1,400%.

Es una de las razones por las que los inversores previos a la IPO comparan a Anthropic con grandes empresas tecnológicas cotizadas antes de que las acciones comunes estén disponibles para el público general.

Los inversores también vigilan cómo Anthropic convierte a su asistente de IA Claude en aplicaciones comerciales. Según FIS, Claude impulsa el Agente de IA para Crímenes Financieros para equipos de cumplimiento involucrados en investigaciones contra el lavado de dinero. La aplicación está diseñada para permitir a los especialistas en cumplimiento completar su trabajo en minutos en lugar de horas.

El sistema extrae evidencia de plataformas bancarias y analiza las actividades de las cuentas de los clientes contra la base de datos de esquemas conocidos de lavado de dinero y prioriza los casos sospechosos para investigación. Coloca la IA en un entorno financiero altamente sensible, donde la velocidad, la transparencia y la trazabilidad son primordiales. No hay espacio para jugar con la información personal de los clientes.

“Según FIS, BMO y Amalgamated Bank serán algunas de las primeras instituciones en desplegar el agente, con una disponibilidad más amplia prevista para la segunda mitad de 2026,” señaló FIS.

FIS también enfatizó que el equipo de IA aplicada de Anthropic, así como los ingenieros desplegados en campo, participan en el proyecto. Ayudan a FIS a diseñar la plataforma y a construir otros agentes usando la tecnología Claude. El producto combina la plataforma bancaria de FIS, datos de transacciones, sistemas de cumplimiento con modelos de IA Claude. “Los datos de los clientes siempre permanecerán dentro de los sistemas controlados por FIS,” dijo FIS.

“Además de cumplir con los altos requisitos regulatorios de cumplimiento, FIS eligió a Claude como la opción adecuada para nuestro Agente de IA para Crímenes Financieros porque pudo razonar con precisión en investigaciones complejas, explicar sus hallazgos y operar de manera segura dentro de un flujo de trabajo regulatorio,” dijo Jonathan Pelosi, jefe de Servicios Financieros en Anthropic.

OpenAI abre su modelo cibernético a Europa mientras Anthropic mantiene Mythos bajo revisión

Mientras Anthropic enfrenta su propia batalla por el acceso a IA cibernética en Europa, OpenAI anunció el lunes que dará acceso a GPT-5.5-Cyber, una versión cibernética de su último modelo de IA, a los países de la UE. A diferencia de GPT-5.5, OpenAI aún no ha dado un acceso previo similar al último modelo Mythos de Anthropic.

OpenAI dijo que empresas europeas, gobiernos, agencias de ciberseguridad y instituciones de la UE como la Oficina de IA de la UE tendrán acceso al modelo. Comenzará primero con acceso de vista previa para equipos de ciberseguridad evaluados por OpenAI. La actualización llega un mes después de que Anthropic lanzara Mythos, generando temores sobre ataques cibernéticos a sistemas de software cruciales.

Thomas Regnier, de la Comisión Europea, dijo: “Nos complace la transparencia de OpenAI en su intención de permitir el acceso a su nuevo modelo a la Comisión.” Thomas Regnier confirmó que OpenAI y la Comisión de la UE habían discutido el asunto en reuniones previas. Además, continuarán la discusión esta semana. “De esa manera, podemos monitorear el despliegue del modelo y abordar cualquier preocupación de seguridad,” afirmó.

Sin embargo, según Thomas Regnier, la UE también está en contacto con Anthropic; sin embargo, las discusiones están en una etapa diferente a las de OpenAI. “Se han realizado cuatro o cinco reuniones con Anthropic; sin embargo, las discusiones aún están en una etapa distinta a la solución presentada por OpenAI.”

George Osborne, jefe del país en OpenAI, dijo que, “Un laboratorio de IA como el nuestro no puede juzgar unilateralmente si un sistema es seguro porque depende de socios confiables que operan en conjunto.” George Osborne agregó que “es hora de que la última tecnología de IA cibernética esté disponible para los muchos defensores de Europa, no solo para unos pocos selectos.”

Según él, el Plan de Acción Cibernética de la UE colaborará con responsables políticos, instituciones y organizaciones empresariales europeas para acceder a herramientas para fines de defensa y seguridad pública.

No solo leas noticias de criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

JUP-4,88%
FIS2,72%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado