Frenando el ritmo en la IA de ciberseguridad filtrada de Anthropic

La noticia de la filtración de un modelo de IA de Anthropic sacudió a la industria de la ciberseguridad, haciendo que las acciones de las principales empresas cayeran bruscamente. Lo que inicialmente parecía un posible cambio de juego ahora plantea preguntas urgentes: ¿pueden las organizaciones confiar en la IA para sus activos digitales más sensibles, o este incidente simplemente refuerza la necesidad de una protección experta?

Según Mint, un borrador filtrado de una publicación de blog introdujo un nuevo nivel de modelos de IA llamado Capybara. El borrador afirmaba que Capybara superó al modelo insignia de Anthropic, Claude Opus 4.6, en “codificación de software, razonamiento académico y tareas relacionadas con la ciberseguridad”. Además, señaló que el entrenamiento con Claude Mythos—un modelo que Anthropic describe como el más avanzado hasta ahora—ya se ha completado.

¿Por qué se filtró?

Aunque Anthropic atribuyó la filtración a “error humano”, la explicación podría no hacer mucho por tranquilizar a las organizaciones sobre la capacidad de la empresa para salvaguardar datos sensibles. Algunos analistas especulan que podría haber otros motivos en juego.

“La filtración de Capybara es desafortunada, pero casi me pregunto si se dejó intencionalmente en un lago de datos accesible para resaltar algunos de los riesgos cibernéticos emergentes que las plataformas de IA en evolución plantean y plantearán”, dijo Tracy Goldberg, Directora de Ciberseguridad en Javelin Strategy & Research. “Dicho todo esto, el modelo sigue en pruebas, y Anthropic establece claramente que es consciente de los errores y los riesgos que necesitan ser abordados, por lo que Anthropic solo lanzó Capybara de forma gradual”.

La amenaza inminente de la IA

Anthropic también destacó los riesgos de ciberseguridad vinculados a estos modelo, haciendo hincapié en la carrera armamentista que está ocurriendo con la IA entre los defensores y los ciberdelincuentes. La empresa advirtió que Capybara podría ser la primera de una serie de modelos capaces de identificar y explotar vulnerabilidades mucho más rápido que lo que los equipos de seguridad pueden responder. En otras palabras, los criminales podrían aprovechar el modelo para impulsar una nueva generación de amenazas de ciberseguridad impulsadas por IA.

Los inversores reaccionaron con rapidez, impulsando la caída de las acciones de CrowdStrike, Datadog y Zscaler por más de un 10% en las primeras operaciones.

“La caída de las acciones tecnológicas tras la noticia sobre la filtración de Capybara realmente solo pone de manifiesto la falta de comprensión que los inversores tienen sobre la IA en general”, dijo Goldberg. “Sabemos que estos modelos seguirán adaptándose, y lo harán a un ritmo más rápido que el que pueden responder las medidas de seguridad de la industria. Por eso, la gobernanza en torno a la IA es tan crítica.”

0

                    ACCIONES

0

                VISTAS
            

            

            

                Compartir en FacebookCompartir en TwitterCompartir en LinkedIn

Etiquetas: AIAnthropicCrowdStrikeCybersecurityMint

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado