Durch die Integration von k0rdent Enterprise und k0rdent Virtualization schafft Mirantis eine Plattform, die Kubernetes-native Features mit VM-Funktionalität verbindet. Deklarative Automatisierung mittels YAML-Templates und GitOps-Pipelines gewährleistet konsistente, wiederholbare Deployments. Der intelligente Scheduler verteilt Rechen- und Speicherkapazitäten bedarfsgerecht zwischen KI-Pipelines, Microservices und Legacy-Anwendungen. Zentrale Richtlinien erzwingen Sicherheits- und Compliance-Standards. Diese Lösung reduziert manuelle Eingriffe, steigert Ressourceneffizienz und ermöglicht schnelle, skalierbare Rollouts über Cloud-, Hybrid- und Edge-Umgebungen hinweg, effizient mit minimalem Setup-Aufwand.
Inhaltsverzeichnis: Das erwartet Sie in diesem Artikel
Zentralisierte Kubernetes-Plattform steuert KI-Dienste, Container und virtuelle Workloads effizient
Shaun O’Meara, Chief Technology Officer bei Mirantis (Foto: Mirantis)
Mithilfe einer nativen Kubernetes-Steuerung bündelt k0rdent Enterprise KI-Funktionen, Container-Cluster und virtuelle Maschinen unter einer einheitlichen Ebene. Das Ergebnis ist ein zentralisiertes Infrastrukturmanagement, das Insellösungen ablöst und manuelle Konfigurationsaufwände minimiert. Über deklarative YAML-Definitionen lassen sich Deployments und Skalierungsstrategien automatisiert ausrollen. Gleichzeitig profitieren Plattform-Teams von konsistenter Policy-Governance, optimierter Ressourcenzuteilung und schneller Fehlererkennung, was Betriebskosten senkt und die Zuverlässigkeit anspruchsvoller Workloads steigert. Die Lösung unterstützt Multi-Tenancy, rollenbasiertes Access-Control, Health-Checks, Self-Healing-Mechanismen und Cloud-agnostische Deployments.
Kubernetes Orchestrierung bietet vollständig resiliente Container- und VM-Verwaltung jederzeit
Die integrierten Kubernetes-Orchestrierungsfunktionen automatisieren Deployment, horizontale Skalierung und Ausfallsicherheit für Container und virtuelle Maschinen. Plattform-Engineering-Teams nutzen deklarative Konfigurationsdateien, um Infrastrukturänderungen versioniert in Git abzulegen. Vordefinierte GitOps-Pipelines übernehmen anschließend automatische Validierung, Genehmigung und Rollout. Self-Healing-Mechanismen ergänzen diesen Prozess, indem sie fehlerhafte Instanzen erkennen und ersetzen. So entsteht ein konsistenter, auditabler Lifecycle für Anwendungen, der manuelle Schritte reduziert, Compliance-Anforderungen erfüllt und schnelle, reproduzierbare Infrastruktur-Updates gewährleistet. Durch diese Automatisierung gewinnen Teams Zeit für strategische Aufgaben und senken das Risiko menschlicher Fehler erheblich.
Automatische Ressourcenplanung gewährleistet optimale Auslastung und senkt Infrastrukturkosten deutlich
Ein KI-gestützter Scheduler in k0rdent identifiziert Lastmuster automatisch und ordnet CPU- und RAM-Kapazitäten in Echtzeit neu zu. Er reagiert dynamisch auf steigende oder sinkende Anforderungen, indem er überschüssige Ressourcen freigibt und Engpässe verhindert. Die kontinuierliche Planung reduziert Stillstände und Over-Provisioning gleichermaßen und erzielt so eine maximale Hardwareauslastung. Daraus resultieren signifikante Kosteneinsparungen, eine gesteigerte Serviceperformance und eine erhöhte Infrastruktur-Resilienz in Cloud-, Hybrid- und On-Premises-Architekturen. Dieses Modell steigert langfristig die betrieblichen Kennzahlen.
Per YAML-Templates provisionieren Entwickler selbst und verkürzen Time-to-Value erheblich
Mit YAML-basierten Infrastruktur-Blueprints und einem Self-Service-Portal erhalten Entwickler eine standardisierte Basis, um Umgebungen automatisiert zu provisionieren. Diese Methode kombiniert deklarative Definitionen mit Orchestrierungsfunktionen, um Workloads konsistent aufzubauen und zu skalieren. Manuelle Freigabeprozesse entfallen, da integrierte Validierungsregeln und Versionskontrollen Unstimmigkeiten frühzeitig erkennen. Ergebnis sind verkürzte Inbetriebnahmezeiten, reduzierte Fehlerquoten und eine beschleunigte Markteinführung neuer Anwendungen sowie eine signifikant höhere Entwicklungsgeschwindigkeit. Parallel unterstützt das System Self-Service-Audits und Compliance-Reporting, um Governance-Anforderungen lückenlos zu erfüllen.
k0rdent verschiebt Microservices und KI-Apps problemlos zwischen fünf Infrastrukturen
Durch k0rdent können Unternehmen identische Software-Container und virtuelle Maschinen ohne zusätzliche Anpassungen in AWS, Azure, GCP, eigenen Rechenzentren und Edge-Umgebungen betreiben. Die Plattform abstrahiert Infrastrukturunterschiede und stellt eine konsistente Laufzeitumgebung bereit. Microservices und KI-Anwendungen lassen sich dadurch mühelos zwischen Cloud- und On-Premise-Standorten verschieben. Dieses Vorgehen beseitigt Inkompatibilitäten, ermöglicht eine stringente CI/CD-Pipeline und unterstützt dynamische Lastverteilung sowie automatische Skalierung über verschiedene Betriebsumgebungen hinweg. Dies steigert Agilität, minimiert Ausfallzeiten und fördert Innovation.
Zentralisierte Policy-Enforcement und deklarative Infrastrukturdefinition dank k0s plus GitOps-Templates
Mit k0s als Basis und GitOps-Methodik werden Infrastrukturänderungen vollständig versioniert und automatisch durch Pipelines ausgerollt. Entwickler benutzen deklarative YAML-Definitionen, um beliebige Workloads zu provisionieren, ohne auf Operations-Teams warten zu müssen. Zentral gesteuerte Policies sorgen dafür, dass alle selbst erstellten Templates Compliance-Anforderungen und Sicherheitsvorschriften erfüllen. Die validierten Mirantis-Templates bieten einen Katalog erprobter Konfigurationen, der schnelle Wiederholbarkeit, reduzierte Time-to-Deploy und gesteigerte Agilität im gesamten Lifecycle ermöglicht. Fehlkonfigurationen werden vermindert und Wartungsaufwand minimiert.
Zusätzliche VMware-Funktionen ersetzen mit k0rdent Virtualization für hybride Infrastruktur
Indem k0rdent Virtualization die Funktionalitäten von k0rdent Enterprise nutzt, substituiert es VMware vSphere, ESXi und vRealize durch eine containergesteuerte Virtualisierungsarchitektur. Diese Lösung ermöglicht automatisierte Migration bestehender VM-Workloads, transparente Richtlinieneinhaltung und einfache Erweiterung von Edge-Standorten. Skalierbare Ressourcenzuteilung, deklarative YAML-Templates und Self-Service-Portale beschleunigen Rollouts und Wartungsarbeiten. Heterogene IT-Fabrics werden unter Kubernetes zusammengeführt, wodurch Betriebskosten sinken, Sicherheitsanforderungen erfüllt und betriebliche Agilität nachhaltig gesteigert werden. Integrierte Netzwerk- und Speicherlösungen, Compliance-Audits sowie Support gewährleisten Verlässlichkeit.
Mirantis liefert Universal-Templates für Cloud- und On-Premises-Plattformen sofort einsetzbar
Die von Mirantis bereitgestellten Templates decken alle gängigen Public-Cloud-Dienste und lokale Infrastrukturplattformen wie AWS, Azure, GCP, vSphere und OpenStack ab. Vordefinierte Parameter und integrierte Automatisierungsworkflows erlauben eine unmittelbare Orchestrierung von Netzwerken, Speicher- und Rechenressourcen. Standardisierte Deployments garantieren reproduzierbare Ergebnisse über verschiedene Umgebungen hinweg. Dadurch profitieren IT-Teams von reduzierten Implementierungszeiten, klaren Prozessen und einer konsistenten Konfiguration, wodurch Betriebskosten sinken und die Effizienz steigt. Service-Level-Agreements werden einfacher eingehalten, Governance optimiert, Verfügbarkeit gesichert.
Intelligenter Scheduler optimiert Ressourcenzuweisung für maximale Performance und Kosteneinsparungen
Mirantis k0rdent Enterprise und Virtualization verschmelzen containerisierte Microservices und VM-basierte Legacy-Anwendungen mit Kubernetes-Kerntechnologien. Automatisierte Rollouts, horizontale Skalierung und kontinuierliche Aktualisierungen erfolgen über deklarative YAML-Manifest-Dateien und GitOps-Pipelines. Ein intelligenter Scheduler verteilt alle Workloads ressourcenschonend, während Self-Service-Portale Entwicklern schnelle Infrastrukturzugriffe bieten. Zentrale Richtlinienkontrolle und Self-Healing gewährleisten Compliance und Ausfallsicherheit. Dank einheitlicher Steuerung lassen sich Multi-Cloud-, Hybrid- und Edge-Umgebungen nahtlos betreiben, wodurch Time-to-Value signifikant verkürzt wird. Optimierte Ressourcennutzung, höhere Effizienz und geringeres Fehlerrisiko.