Frenando el ritmo en la IA de ciberseguridad filtrada de Anthropic

Las noticias sobre una filtración de un modelo de IA de Anthropic sacudieron a la industria de la ciberseguridad, haciendo que las acciones de las principales empresas cayeran con fuerza. Lo que inicialmente parecía un posible cambio de juego ahora plantea preguntas urgentes: ¿pueden las organizaciones confiarle a la IA sus activos digitales más sensibles, o este incidente simplemente refuerza la necesidad de una protección experta?

Según Mint, un borrador filtrado de una publicación en el blog presentó un nuevo nivel de modelos de IA llamado Capybara. El borrador afirmaba que Capybara superó al modelo insignia de Anthropic, Claude Opus 4.6, en “programación de software, razonamiento académico y tareas relacionadas con la ciberseguridad”. Además, señaló que ya se ha completado el entrenamiento en Claude Mythos, un modelo que Anthropic describe como el más avanzado que tienen.

¿Por qué se filtró?

Mientras que Anthropic atribuyó la filtración a “error humano”, la explicación podría hacer poco para tranquilizar a las organizaciones sobre la capacidad de la empresa para salvaguardar datos sensibles. Algunos analistas especulan que podría haber otras motivaciones en juego.

“La filtración de Capybara es desafortunada, pero casi me pregunto si se dejó intencionalmente en un lago de datos accesible para destacar algunos de los riesgos cibernéticos emergentes que las plataformas de IA en constante evolución plantean y plantearán”, dijo Tracy Goldberg, directora de Ciberseguridad en Javelin Strategy & Research. “Dicho eso, el modelo sigue en pruebas, y Anthropic afirma claramente que es consciente de los fallos y riesgos que necesitan abordarse, por lo que Anthropic solo lanzó Capybara de manera preliminar.”

La amenaza inminente de la IA

Anthropic también destacó los riesgos de ciberseguridad vinculados a estos modelos, subrayando la escalada de la carrera armamentista que se está desarrollando con la IA entre los defensores y los ciberdelincuentes. La empresa advirtió que Capybara podría ser la primera de una serie de modelos capaces de identificar y explotar vulnerabilidades mucho más rápido de lo que los equipos de seguridad pueden responder. En otras palabras, los criminales podrían aprovechar el modelo para impulsar una nueva generación de amenazas de ciberseguridad impulsadas por IA.

Los inversores reaccionaron con rapidez, llevando las acciones de CrowdStrike, Datadog y Zscaler a caer más de un 10% en las primeras operaciones.

“La caída de las acciones tecnológicas tras las noticias sobre la filtración de Capybara realmente solo resalta la falta de comprensión que tienen los inversores sobre la IA en general”, dijo Goldberg. “Sabemos que estos modelos seguirán adaptándose y lo harán a un ritmo más rápido que el que pueden responder las medidas de seguridad de la industria. Por eso, la gobernanza en torno a la IA es tan crítica.”

0

                    ACCIONES

0

                VISTAS
            

            

            

                Comparte en FacebookComparte en TwitterComparte en LinkedIn

Etiquetas: AIAnthropicCrowdStrikeCybersecurityMint

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado