Die aktuelle Version 4.21 der Hybrid-Cloud-Anwendungsplattform unterstützt den Betrieb von KI-Trainingsjobs, containerisierten Microservices und virtualisierten Anwendungen auf einer gemeinsamen Infrastruktur und mit einem einheitlichen Betriebsmodell. Unternehmen können damit bestehende IT-Umgebungen modernisieren und KI-Workloads für den Produktionseinsatz skalieren, ohne separate Plattformen betreiben zu müssen.
Red Hat OpenShift 4.21 erweitert die Plattform um neue Funktionen für KI-Workloads im Produktionseinsatz. Mit dem Red Hat build of Kueue v1.2 steht ein einheitliches TrainJob-API für unterschiedliche Machine-Learning-Frameworks zur Verfügung. Ergänzend bietet eine neue Visibility-API Einblick in Warteschlangen, geschätzte Startzeiten und Engpässe bei Ressourcen wie bestimmten GPU-Typen.
Der JobSet Operator ist in dieser Version allgemein verfügbar und ermöglicht die Orchestrierung verteilter, voneinander abhängiger Workloads unter Nutzung bestehender GitOps-, RBAC- und Monitoring-Mechanismen.
Zur präziseren Nutzung von GPU-Ressourcen führt Red Hat OpenShift 4.21 erweiterte Funktionen für Dynamic Resource Allocation (DRA) ein. Anstelle fester GPU-Typen können Workloads nun hardwarebezogene Attribute wie verfügbaren Grafikspeicher anfordern. Kontrollierter administrativer Zugriff erlaubt Monitoring- und Debugging-Aufgaben, ohne bestehende Zuweisungen zu beeinträchtigen.
Im Core der Plattform optimiert Red Hat OpenShift 4.21 die Ressourcennutzung durch automatisches Right-Sizing von Hosted Control Planes auf Basis der tatsächlichen Speicherauslastung. Zusätzlich können Control Planes und zugehörige NodePools bei Inaktivität vollständig auf null skalieren, wodurch insbesondere Entwicklungs-, Test- und temporäre Umgebungen kosteneffizient betrieben werden können.
Darüber hinaus erweitert Red Hat die Unterstützung für Hybrid-Cloud-Infrastrukturen, unter anderem für VMware Cloud Foundation 9 sowie die Oracle Database Appliance.
Auch Red Hat OpenShift Virtualization wird weiterentwickelt. Neue Funktionen ermöglichen die clusterübergreifende Live-Migration laufender virtueller Maschinen ohne Downtime, unterstützen IPv6-only-Control-Planes sowie sekundäre Netzwerke und erlauben den Betrieb von Virtualisierungs-Workloads auf Bare Metal in der Google Cloud.