Ampliación de la autoridad autónoma de la IA, Anthropic presenta el modo automático para Claude Code

robot
Generación de resúmenes en curso

Anthropic está otorgando a sus herramientas de programación de IA mayor autonomía, mientras busca equilibrar eficiencia y seguridad.

El 24 de marzo, Anthropic anunció el lanzamiento del “modo automático” (auto mode) para Claude Code, que permite a la IA decidir por sí misma qué operaciones pueden ejecutarse directamente, sin necesidad de esperar la confirmación individual del usuario.

Actualmente, esta función está disponible en versión de vista previa de investigación para usuarios de planes en equipo, y en los próximos días se ampliará a la versión empresarial y a los usuarios de API.

El núcleo de esta nueva función es un mecanismo de seguridad incorporado, donde cada operación antes de ejecutarse pasa por una capa de seguridad de IA. El sistema autoriza automáticamente las operaciones consideradas seguras y bloquea aquellas que presentan riesgos.

Anthropic afirma que esta capa de seguridad también puede detectar ataques de inyección de indicaciones, es decir, instrucciones maliciosas ocultas en el contenido que la IA está procesando, con la intención de inducir a la modelo a realizar acciones no previstas.

La compañía recomienda a los usuarios utilizar esta nueva función en un entorno de sandbox aislado, para evitar que los riesgos potenciales se propaguen a los sistemas de producción.

Iteración de productos impulsada por los puntos débiles de los desarrolladores

Para los desarrolladores que actualmente usan herramientas de programación de IA, un problema común es tener que supervisar cada paso de la IA o, por el contrario, dejar que la modelo opere de forma autónoma, asumiendo riesgos impredecibles.

El modo automático de Anthropic es en esencia una extensión y mejora del comando existente en Claude Code “ya no solicitar confirmación al usuario” (dangerously-skip-permissions).

Este comando originalmente entregaba toda la toma de decisiones a la IA, mientras que el nuevo modo añade una capa adicional de filtrado de seguridad.

Al permitir que la IA, en lugar del usuario, decida cuándo solicitar permisos, Anthropic intenta ofrecer una mayor seguridad sin sacrificar la eficiencia en la ejecución.

Empresas como GitHub y OpenAI ya han lanzado herramientas de programación autónoma que pueden realizar tareas en lugar de los desarrolladores. La iniciativa de Anthropic avanza en esta dirección, transfiriendo la decisión de permisos del usuario a la propia IA.

El lanzamiento del modo automático sigue a una serie de actualizaciones recientes de productos de Anthropic, incluyendo Claude Code Review, que captura automáticamente defectos antes de fusionar código, y Dispatch for Cowork, que permite a los usuarios delegar tareas a agentes de IA.

Esta serie de movimientos muestra que Anthropic está construyendo sistemáticamente un portafolio de productos de flujo de trabajo de IA autónoma dirigido a desarrolladores empresariales.

Detalles clave aún por aclarar

No obstante, esta función todavía presenta incertidumbres que merecen atención.

Anthropic aún no ha divulgado los criterios específicos que utiliza en su capa de seguridad para determinar el nivel de riesgo de las operaciones, y esta información es precisamente la que los desarrolladores necesitan conocer antes de adoptar ampliamente la función.

Además, el modo automático actualmente solo soporta los modelos Claude Sonnet 4.6 y Opus 4.6, y todavía está en fase de vista previa de investigación, lo que significa que el producto aún no está finalizado.

Para las empresas que consideren desplegar esta función en entornos de producción, las limitaciones y la falta de transparencia en la información podrían ser factores decisivos para una evaluación prudente.

Advertencias de riesgo y términos de exención de responsabilidad

El mercado tiene riesgos, y la inversión debe ser cautelosa. Este artículo no constituye un consejo de inversión personal y no considera los objetivos, situación financiera o necesidades particulares de cada usuario. Los usuarios deben evaluar si las opiniones, puntos de vista o conclusiones aquí presentados son adecuados para su situación específica. La inversión se realiza bajo su propio riesgo.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado