El próximo impacto de la IA: El nuevo modelo de Anthropic se filtra accidentalmente, las acciones de ciberseguridad caen significativamente en la apertura

robot
Generación de resúmenes en curso

Anthropic, un nuevo modelo de IA que aún no ha sido lanzado, se filtró accidentalmente debido a una fuga de datos, lo que reavivó la preocupación del mercado por la capacidad de la IA para trastocar la industria de la ciberseguridad; el precio de las acciones del sector de ciberseguridad cayó en bloque el viernes antes de la apertura.

Según la revista Fortune, Anthropic está desarrollando y ya ha comenzado a probar con usuarios tempranos un nuevo modelo de IA. La empresa reconoce que las descripciones del modelo se filtraron porque se guardaron en una caché de datos accesible públicamente.

El portavoz de Anthropic calificó este nuevo modelo como un “avance a saltos” en rendimiento de la IA y dijo que se trata del “modelo más potente” que la compañía ha construido hasta la fecha. Lo más destacable es que en los archivos filtrados se menciona que el modelo podría traer “riesgos de ciberseguridad sin precedentes”.

Tras el impacto de la noticia, el sector de ciberseguridad cayó con rapidez al abrir. CrowdStrike bajó un 6,0%, Zscaler un 4,7%, Palo Alto Networks un 4,6%, Okta un 4,26%, Fortinet un 4,0%, Cloudflare un 3,9%; el Global X ETF de ciberseguridad, que sigue todo el sector, cayó un 2,7%.

Proceso de la filtración: un borrador queda expuesto en una base de datos pública

Según la revista Fortune, un borrador de entrada de blog relacionada con este nuevo modelo estuvo almacenado, hasta antes de la noche del jueves, en un repositorio de datos que no estaba cifrado y que podía buscarse públicamente.

Los documentos muestran que este nuevo modelo se denomina “Claude Mythos”, y que en los archivos correspondientes Anthropic sostiene que los riesgos de ciberseguridad que conlleva superan a los de cualquier modelo anterior.

Anthropic confirmó el incidente de filtración y la existencia del nuevo modelo, y señaló que este modelo aún se encuentra en la fase de prueba para clientes con acceso temprano, sin haberse lanzado oficialmente al público. El portavoz de la compañía enfatizó que este nuevo modelo representa un salto importante en las capacidades de IA de la empresa.

Lógica del sector: el salto de capacidad en IA impacta directamente a los proveedores de seguridad tradicionales

La caída de las acciones de ciberseguridad refleja la preocupación estructural que el mercado ha mantenido durante mucho tiempo sobre que la IA trastocará la industria de software de seguridad tradicional.

Los inversores en general se inquietan por que, a medida que compañías de IA como Anthropic y OpenAI lancen modelos con capacidades cada vez más potentes, la demanda de los clientes empresariales por productos tradicionales de ciberseguridad podría disminuir, y con ello frenar el crecimiento de ingresos, los márgenes de beneficio y la capacidad de fijar precios de las empresas relacionadas.

En el mercado, la formulación en los archivos filtrados sobre “riesgos de ciberseguridad sin precedentes” genera una doble interpretación:

Por un lado, las herramientas de IA potentes podrían convertirse en un nuevo método de ataque, poniendo a prueba los sistemas de defensa existentes; por otro, las capacidades de seguridad nativas de la IA también podrían sustituir parcialmente los productos de seguridad tradicionales, presionando las cuotas de mercado de los proveedores ya establecidos. Esta lógica, sumada a un entorno con liquidez relativamente baja antes de la apertura, intensifica la venta en masa concentrada en el sector.

Contexto del mercado: el auge de la “IA que lo reemplaza todo” vuelve con fuerza

El sector de ciberseguridad, junto con el mercado más amplio de acciones de software, ha estado bajo presión recientemente por el relato de la “sustitución por IA”. La exposición del nuevo modelo de Anthropic hizo que este tema del mercado volviera a convertirse en el centro de la actividad comercial.

Para los inversores, la cuestión central es: cuando las capacidades de seguridad y ataque de los propios modelos de IA avanzan al mismo tiempo, ¿qué tan profunda es en realidad la foso defensivo de los proveedores tradicionales de ciberseguridad y hasta qué punto se verá erosionada su carácter de no sustituibles?

Actualmente, todavía no se han divulgado la fecha de lanzamiento oficial de Claude Mythos ni los detalles técnicos completos; Anthropic tampoco ha ofrecido más explicaciones sobre el impacto específico del incidente de filtración. El mercado seguirá prestando atención a la evolución posterior de este modelo y a las declaraciones oficiales de Anthropic.

Aviso de riesgos y cláusulas de exención de responsabilidad

        Hay riesgos en el mercado; invierta con cautela. Este artículo no constituye asesoramiento de inversión personal, y tampoco considera objetivos de inversión especiales, situación financiera o necesidades específicas de usuarios particulares. Los usuarios deben considerar si cualesquiera opiniones, puntos de vista o conclusiones en este artículo se ajustan a sus circunstancias específicas. Invertir con base en lo anterior es responsabilidad del inversor.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado