Red Hat, en el contexto de la difusión de la "IA de tipo agente", coloca la confianza y los estándares de razonamiento en la vanguardia... apostando por vLLM

robot
Generación de resúmenes en curso

A medida que las empresas implementan “IA de tipo agente” en el trabajo real, el enfoque de atención se está desplazando del rendimiento del modelo hacia la “confianza”. Los análisis indican que, dado que la IA puede escribir código, acceder a sistemas e incluso realizar operaciones sustantivas, garantizar la seguridad, la gobernanza y la estabilidad se han convertido en temas centrales.

El director de tecnología (CTO) de Red Hat y vicepresidente senior de ingeniería global, Chris Wright, afirmó en la conferencia Red Hat Summit 2026: “Cuando queremos que los agentes tomen acciones en negocios reales, confiar en esta IA se vuelve crucial.” Él enfatizó especialmente que la concesión de permisos mínimos, los entornos sandbox y un sistema de gestión de agentes a gran escala son condiciones necesarias.

Red Hat apuesta por construir una “capa de inferencia estándar” centrada en vLLM

Como solución para reducir la complejidad de la IA empresarial, Red Hat propuso una “capa de inferencia estandarizada”. La idea es que, así como Linux y Kubernetes se convirtieron en bases comunes de la industria en el pasado, ahora el motor de inferencia de código abierto de IA vLLM también debería desempeñar ese papel.

Para ello, Red Hat adquirió Neural Magic para obtener capacidades de optimización de rendimiento en cuantificación y inferencia. Chris Wright explicó: “Los proveedores de modelos incluso comenzaron a desarrollar para vLLM antes de que los modelos públicos estuvieran disponibles. Esta estandarización está mejorando la eficiencia de todo el ecosistema y también sirviendo como base para que las empresas mejoren su eficiencia operativa interna.”

Desde la perspectiva empresarial, esto tiene un significado importante, ya que puede reducir la incertidumbre en la elección de infraestructura. Solo al definir claramente en qué base se ejecutan los modelos, se pueden reducir los costos de desarrollo, despliegue y mantenimiento. En última instancia, la confianza en la IA de código abierto no solo se relaciona con la ética tecnológica, sino también con la “previsibilidad” en los entornos operativos reales.

El costo de inferencia, ahora un variable clave para la junta directiva

Con la popularización de la IA, el “costo de inferencia” se está convirtiendo en un indicador operativo importante. Debido a que los costos de energía y semiconductores necesarios para ejecutar modelos de lenguaje grandes continúan aumentando, las empresas están dejando de usar solo los modelos más potentes y buscan combinaciones más eficientes para diferentes negocios.

Chris Wright afirmó que se debe seleccionar hardware y modelos con la mejor relación calidad-precio y eficiencia energética según la tarea específica. En otras palabras, usar un solo tipo de IA para todos los trabajos puede ser ineficiente. Las tareas simples pueden ser más adecuadas para modelos pequeños, mientras que las decisiones complejas requieren modelos grandes.

Esta tendencia aumenta la probabilidad de que la infraestructura de IA evolucione hacia una “arquitectura heterogénea” en lugar de una “arquitectura única”. Dado que entornos en la nube, despliegues locales y en sitios de fábrica se usarán en combinación, el hardware también puede extenderse desde GPU únicas a múltiples combinaciones. En este punto, Red Hat espera que su estrategia de plataforma mantenga su valor continuo.

La competencia por la “IA confiable” se extiende a las empresas de plataformas

Estas declaraciones indican que la competencia en el mercado de IA ya no está determinada únicamente por el rendimiento del modelo. Lo que los clientes empresariales realmente necesitan no es solo un modelo más inteligente, sino un entorno de ejecución confiable y controlable.

Especialmente en entornos donde se ejecutan cientos o miles de agentes de IA simultáneamente, factores como las políticas de seguridad, la gestión de permisos y la auditabilidad se vuelven imprescindibles. Esta es también la razón por la que la industria, al igual que en la era de Linux y Kubernetes, busca nuevamente estándares comunes.

Finalmente, la confianza en la IA de código abierto probablemente se convertirá en un factor clave para decidir la velocidad de adopción de la IA en las empresas en el futuro. Con la consolidación de la capa de inferencia estandarizada y la estrategia de infraestructura heterogénea, las empresas podrán avanzar más rápidamente desde la fase experimental hacia entornos de producción reales.

Notas de TP AI Este resumen se realizó con el modelo de lenguaje TokenPost.ai. El contenido principal puede estar omitido o no reflejar los hechos con precisión.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • 1
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Fijado