Las nuevas capacidades de ‘metal-to-agent’ en Red Hat AI proporcionan una base para escalar modelos y agentes autónomos en toda la nube híbrida.
Red Hat, el proveedor líder mundial de soluciones de código abierto, anunció avances significativos en todo el portafolio de Red Hat AI para ayudar a cerrar la brecha entre la experimentación con IA y el control operativo de grado de producción. Al ofrecer una plataforma unificada ‘del hardware al agente’ , Red Hat AI 3.4 simplifica el desarrollo y despliegue de flujos de trabajo agénticos, permitiendo que las organizaciones trasciendan los proyectos piloto hacia una IA escalable en toda su infraestructura.
Al proporcionar un marco de trabajo consistente tanto para desarrolladores como para operadores, Red Hat sienta las bases para que las organizaciones escalen sistemas autónomos mientras mantienen el control, las capacidades de seguridad y la eficiencia de hardware que requiere la empresa moderna.
¿Qué es Red Hat AI 3.4?
Red Hat AI 3.4 es una plataforma integral que ofrece la base arquitectónica y las herramientas operativas necesarias para escalar modelos y flujos de trabajo agénticos en toda la nube híbrida. Un elemento central de este lanzamiento es la entrega de Model-as-a-Service (MaaS), que proporciona una interfaz única y gobernada para que los desarrolladores accedan a modelos curados, permitiendo al mismo tiempo que los administradores rastreen el consumo y apliquen políticas. Esto se construye sobre una base de inferencia distribuida de alto rendimiento, impulsada por vLLM y llm-d, para mantener un servicio de modelos optimizado y eficiente en una amplia gama de entornos.
Si bien los agentes de IA impulsan una demanda exponencial de inferencia, Red Hat AI proporciona las capacidades para que las organizaciones desplieguen y gestionen agentes a escala, independientemente del marco de trabajo (framework) del agente.
Las herramientas de AgentOps recientemente introducidas gestionan a los agentes desde el desarrollo hasta la producción con rastreo integrado, observabilidad, identidad criptográfica y gestión del ciclo de vida.
Para integrar los datos empresariales con los modelos y agentes, Red Hat AI 3.4 introduce la gestión de prompts —tratando a los prompts como activos de datos de primera clase— y un centro de evaluación para determinar la precisión, calidad y seguridad de los modelos y agentes. Estas capacidades están impulsadas por MLflow, que proporciona un seguimiento de experimentos y gestión de artefactos integrados, tanto para casos de uso de IA generativa como predictiva. La plataforma permite a los usuarios validar la seguridad de los modelos y agentes con pruebas de seguridad automatizadas y red-teaming, utilizando tecnología de Chatterbox Labs y el proyecto Garak para proporcionar una ruta orientada a la seguridad desde los pilotos experimentales hasta la utilidad empresarial lista para producción.
¿Por qué Red Hat AI 3.4 es importante?
La transición de los chatbots experimentales a sistemas autónomos de grado de producción requiere un cambio fundamental en la forma en que colaboran los equipos de TI. Muchas organizaciones reconocen ahora la necesidad de pasar de ser meros ‘consumidores de tokens’ a ser ‘proveedores de tokens’ para gestionar mejor los costos y potenciar casos de uso de IA privados y soberanos.
Sin embargo, la fricción entre los desarrolladores (builders) y los administradores de infraestructura sigue siendo el principal obstáculo para la adopción. Sin un enfoque unificado que alinee estos dos roles, las barreras de acceso a la infraestructura frenan la innovación, mientras que los atajos de “shadow AI” introducen riesgos no gobernados y costos impredecibles.
Red Hat AI 3.4 ayuda a resolver esta tensión al proporcionar una base empresarial para la inferencia escalable y el despliegue de agentes autónomos, ofreciendo la transparencia y el control necesarios para cumplir con rigurosos estándares de riesgo y gobernanza. Dado que los agentes operan con cierto nivel de independencia, la falta de visibilidad en su toma de decisiones crea un riesgo de seguridad crítico.
Red Hat AI aborda esto proporcionando la infraestructura para rastrear acciones, pasos de razonamiento y llamadas a herramientas, haciendo posible auditar cómo un agente llegó a un resultado. Al integrar la gestión de identidad criptográfica, la plataforma vincula las acciones a una identidad verificada, ayudando a identificar qué entidad realizó la tarea. En conjunto, estas capacidades permiten a las organizaciones trascender los pilotos desconectados para tratar a la IA como una utilidad empresarial escalable, predecible y, lo más importante, responsable
Qué dicen Red Hat y sus partners
“La era agéntica representa una evolución de nuestra plataforma: de ejecutar aplicaciones tradicionales a potenciar sistemas inteligentes y autónomos”, afirmó Joe Fernandes, vicepresidente y gerente general de la Unidad de Negocio de IA en Red Hat. “Estamos definiendo el estándar abierto sobre cómo la empresa ejecuta la IA. Al proporcionar una base reforzada y de metal-to-agent para la inferencia de IA, MaaS y AgentOps, Red Hat ofrece la garantía operativa que las organizaciones necesitan para innovar a escala manteniendo un control riguroso”.
“La colaboración de CoreWeave con Red Hat se basa en un compromiso compartido con la apertura y en ofrecer una base de inferencia de alto rendimiento que permita a las empresas escalar sus cargas de trabajo de IA más complejas”, afirmó Urvashi Chowdhary, vicepresidenta de Gestión de Productos de Servicios de IA en CoreWeave. “Juntos, hemos entregado un modelo de implementación para Red Hat AI Inference en el Servicio Kubernetes de CoreWeave para ejecutar el mismo stack de inferencia tanto de forma local como en la nube, con un control nativo de Kubernetes y un rendimiento de grado de producción. Esto permite que los equipos de IA empresarial en industrias reguladas se concentren en lo más importante: construir y escalar la IA, en lugar de reconfigurar su stack para cada nuevo entorno”.
“Los agentes autónomos de larga ejecución en la empresa exigen un nuevo nivel de control de infraestructura y seguridad para garantizar operaciones confiables a escala”, señaló John Fanelli, vicepresidente de Software Empresarial en NVIDIA. “Red Hat AI Factory with NVIDIA proporciona una base unificada impulsada por el código abierto que otorga a los desarrolladores y operadores la gobernanza y la confianza necesarias para el futuro agéntico”.
Conclusiones principales
La inferencia escalable de alto rendimiento se une al acceso gobernado a modelos: La inferencia de modelos de alta eficiencia sigue siendo el núcleo de la IA lista para producción. Al combinar el servidor de inferencia vLLM y el motor de inferencia distribuida llm-d con MaaS, Red Hat AI 3.4 proporciona una base fiable y de alto rendimiento para la inferencia de modelos, al tiempo que simplifica el acceso gobernado a los mismos para usuarios y agentes.
AgentOps optimizado para el ciclo de vida de aplicaciones autónomas: Red Hat AI 3.4 introduce capacidades integrales de AgentOps para ayudar a operativizar agentes a escala. Esto incluye rastreo integrado, observabilidad y evaluaciones, junto con la gestión de identidad y del ciclo de vida de los agentes para trasladarlos del desarrollo a la producción.
Conectando datos con modelos y agentes: Los datos empresariales son el combustible que impulsa a los modelos y agentes. Red Hat AI 3.4 añade la gestión de prompts —tratando a los prompts como activos de datos de primera clase— y un centro de evaluación para gestionar valoraciones de calidad, precisión, seguridad y riesgo. Estas capacidades están impulsadas por MLflow, que también proporciona un seguimiento de experimentos y gestión de artefactos integrados tanto para casos de uso de IA generativa como de IA/ML predictiva.
Seguridad y protección integradas para modelos y agentes: Para ayudar a proteger todo el stack de IA, Red Hat AI ofrece una postura de seguridad por capas que se extiende desde el sistema operativo hasta la lógica agéntica. Al proporcionar pruebas de seguridad automatizadas y red-teaming, las organizaciones pueden adoptar un enfoque basado en datos para la selección y configuración de modelos y guardrails, ayudando a proteger mejor las cargas de trabajo de IA contra las amenazas en evolución.
Detalles específicos
Inferencia avanzada y optimización de modelos: Red Hat AI Inference añade priorización de peticiones a sus capacidades de inferencia distribuida, permitiendo que el tráfico interactivo y el de fondo compartan el mismo punto de conexión (endpoint), mientras que las peticiones sensibles a la latencia se procesan primero bajo carga. Red Hat AI Inference también se extiende más allá de Red Hat OpenShift hacia servicios de Kubernetes adicionales, incluidos CoreWeave y Azure, proporcionando a las organizaciones una pila de inferencia consistente en diversos entornos. El soporte de decodificación especulativa, ya disponible de forma general, mejora la velocidad de respuesta entre 2 y 3 veces con un impacto mínimo en la calidad, reduciendo a su vez el costo por interacción.
Model-as-a-Service (MaaS) gobernado: Esta función permite a los ingenieros de plataforma ofrecer modelos curados y validados a través de puntos de conexión de API con seguridad mejorada, utilizando interfaces estándar compatibles con OpenAI. Esto permite una gobernanza unificada tanto de modelos internos como de API externas, integrada con la autenticación basada en proveedores de identidad (IDP).
Gestión de prompts integrada: La plataforma proporciona herramientas unificadas para construir y gestionar prompts como activos de datos de primera clase. Almacenar las instrucciones que impulsan a los modelos y agentes en un registro central proporciona una única fuente de verdad tanto para desarrolladores como para administradores.
Evaluaciones automatizadas para modelos y agentes: Red Hat AI 3.4 introduce el evaluation hub, un plano de control de evaluación de IA unificado e independiente del marco de trabajo para evaluar modelos de lenguaje extensos (LLM), aplicaciones de IA y agentes. Esto sustituye los métodos de prueba fragmentados por un enfoque unificado de benchmarking para medir la calidad, precisión y riesgo.
Seguridad multicapa: El escaneo adversarial automatizado está ahora integrado directamente en el ciclo de vida del desarrollo. Aprovechando la tecnología de Chatterbox Labs, la plataforma Red Hat AI utiliza Garak para examinar modelos y sistemas agénticos en busca de riesgos como jailbreaks, inyecciones de prompts y sesgos, combinado con NVIDIA NeMo Guardrails para la seguridad en tiempo de ejecución.
Observabilidad lista para producción: La integración de MLflow brinda visibilidad sobre la ejecución de los agentes, permitiendo el rastreo de extremo a extremo de las llamadas de LLM, pasos de razonamiento, ejecución de herramientas, respuestas del modelo y uso de tokens mediante OpenTelemetry. Esto crea una pista de auditoría transparente para todo el ciclo de vida de los prompts, embeddings y configuraciones RAG para facilitar la depuración y la auditoría. MLflow también proporciona seguimiento de experimentos y gestión de artefactos integrados para casos de uso de IA generativa y predictiva.
Gobernanza basada en identidad: Mediante la gestión de identidad criptográfica (SPIFFE/SPIRE), Red Hat AI permite a las organizaciones sustituir las claves estáticas codificadas por tokens de corta duración. Esto respalda las operaciones de mínimo privilegio para agentes autónomos en toda la pila y ayuda a confirmar que las acciones agénticas están vinculadas a una identidad verificada.
Experiencias automatizadas: Herramientas como AutoRAG y AutoML automatizan tareas complejas de IA, que van desde la selección de las estrategias de recuperación más eficaces para conjuntos de datos específicos hasta la construcción y optimización de modelos predictivos tradicionales.
Flexibilidad de hardware y nubes gestionadas: Red Hat AI 3.4 ofrece soporte desde el primer día para las arquitecturas de GPU NVIDIA Blackwell y AMD MI325X. Al extender esta arquitectura de plataforma unificada para ejecutarse de forma nativa en nubes gestionadas de terceros —incluyendo el nuevo Red Hat AI Inference en IBM Cloud—, Red Hat proporciona consistencia operativa en una amplia gama de proveedores de hardware y nube.
Disponibilidad
Se espera que Red Hat AI 3.4 esté disponible a finales de este mes.


