Frenando el ritmo en la IA de ciberseguridad filtrada de Anthropic

Las noticias sobre un modelo de IA filtrado de Anthropic sacudieron la industria de ciberseguridad, haciendo que las acciones de las principales empresas cayeran drásticamente. Lo que inicialmente parecía un posible cambio de juego ahora plantea preguntas urgentes: ¿pueden las organizaciones confiar en la IA con sus activos digitales más sensibles, o este incidente simplemente refuerza la necesidad de protección experta?

Según Mint, un borrador de publicación de blog filtrado presentó un nuevo nivel de modelos de IA llamado Capybara. El borrador afirmaba que Capybara superó al modelo insignia de Anthropic, Claude Opus 4.6, en “programación de software, razonamiento académico y tareas relacionadas con la ciberseguridad.” Además, se señaló que se había completado el entrenamiento en Claude Mythos, un modelo que Anthropic describe como el más avanzado hasta ahora.

¿Por qué se filtró?

Mientras que Anthropic atribuyó la filtración a un “error humano”, la explicación puede hacer poco para tranquilizar a las organizaciones sobre la capacidad de la empresa para salvaguardar datos sensibles. Algunos analistas especulan que podría haber habido otros motivos en juego.

“La filtración de Capybara es desafortunada, pero casi me pregunto si fue intencionalmente dejada en un lago de datos accesible para resaltar algunos de los riesgos cibernéticos emergentes que las plataformas de IA en constante evolución plantean y plantearán,” dijo Tracy Goldberg, Directora de Ciberseguridad en Javelin Strategy & Research. “Dicho esto, el modelo todavía está en pruebas, con Anthropic afirmando claramente que es consciente de los errores y riesgos que necesitan ser abordados, razón por la cual Anthropic solo ha lanzado Capybara de manera suave.”

La Amenaza Inminente de la IA

Anthropic también destacó los riesgos de ciberseguridad vinculados a estos modelos, enfatizando la creciente carrera armamentista que está ocurriendo con la IA entre defensores y ciberdelincuentes. La compañía advirtió que Capybara podría ser el primero en una serie de modelos capaces de identificar y explotar vulnerabilidades mucho más rápido de lo que los equipos de seguridad pueden responder. En otras palabras, los criminales podrían aprovechar el modelo para alimentar una nueva generación de amenazas de ciberseguridad impulsadas por IA.

Los inversores reaccionaron rápidamente, haciendo que las acciones de CrowdStrike, Datadog y Zscaler cayeran más del 10% en las primeras operaciones.

“La caída de las acciones tecnológicas tras las noticias sobre la filtración de Capybara realmente resalta la falta de comprensión que tienen los inversores sobre la IA en general,” dijo Goldberg. “Sabemos que estos modelos continuarán adaptándose, y lo harán a un ritmo más rápido de lo que las medidas de seguridad de la industria pueden responder. Por eso, la gobernanza en torno a la IA es tan crítica.”

0

                    ACCIONES

0

                VISTAS
            

            

            

                Compartir en FacebookCompartir en TwitterCompartir en LinkedIn

Etiquetas: IAAnthropicCrowdStrikeCiberseguridadMint

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado