Un puente entre MLOps y DevOps con OpenShift AI

Excerpt: Un puente entre MLOps y DevOps con OpenShift AI: descubre cómo RHOAI acelera la colaboración entre data scientists e ingenieros con workspaces GPU preconfigurados, CI/CD nativo y despliegue de LLM en tiempo real.
Un puente entre MLOps y DevOps con OpenShift AI
Un puente entre MLOps y DevOps con OpenShift AI se construye cuando los equipos de data science y de ingeniería trabajan de forma armónica en una única plataforma. En esta charla de la X-Ops Conference aprenderás paso a paso cómo Red Hat OpenShift AI (RHOAI) elimina la fricción tradicional entre ambos mundos, permitiendo:
- Workspaces preconfigurados de ML/IA
- Pipelines CI/CD nativos para modelos
- Model Serving y scaling automático
- Monitoreo y gobernanza en tiempo real
- Demo práctica de entrenamiento y despliegue de un LLM
¿Por qué necesitamos un puente entre MLOps y DevOps?
Hasta hace poco, los científicos de datos y los ingenieros de software trabajaban en silos:
- Data scientists ajustan hiperparámetros y crean notebooks centrales.
- Ingenieros de DevOps gestionan infraestructuras, despliegan contenedores y supervisan entornos de producción.
Esta separación genera cuellos de botella: los modelos tardan en pasar de Jupyter a un contenedor Docker listo para producción, y las operaciones de infraestructura desconocen los requisitos de GPU y librerías específicas de ML.
¿Qué aporta Red Hat OpenShift AI?
Workspaces colaborativos: Entornos con GPU, bibliotecas (TensorFlow, PyTorch, scikit-learn) y controladores actualizados.
Pipelines CI/CD nativos para ML: Integración con GitOps que dispara entrenamiento, validación y despliegue automático.
Model Serving como servicio: Exposición de endpoints de inferencia con auto-scaling y métricas en vivo.
Monitorización y gobernanza: Paneles en Grafana/Prometheus para métricas de GPU, latencia, drift de datos y trazabilidad.
Demo práctica: de notebook a API en minutos
- Creación de rama
feature/llm-demo
dispara el pipeline en GitLab CI. - Job de entrenamiento escala un “job” en RHOAI con 4 GPUs.
- Validación automática detecta si la exactitud supera el umbral.
- Empaquetado y push de la imagen al registry interno.
- Canary deployment en un namespace efímero.
- Pruebas de inferencia y monitorización en vivo.
Beneficios clave de este puente MLOps–DevOps
- Velocidad de entrega: reduce de semanas a horas el ciclo entrenamiento–producción.
- Reproducibilidad: workspaces idénticos en local, test y producción.
- Colaboración: científicos de datos y DevOps hablan el mismo lenguaje.
- Escalabilidad: recursos GPU y contenedores autoadaptativos.
- Seguridad y cumplimiento: artefactos firmados, roles de acceso y auditoría integrada.
Recursos y próximos pasos
- 📺 Ver la charla completa
- 📚 Linktree con todos los tutoriales
- 🛠️ Repo de ejemplos
- 🎟️ Entradas X-Ops Conference Madrid 2025
- 🌐 Más info
Share this content:
Deja una respuesta