Helm feiert 10 Jahre mit der Veröffentlichung von Version 4
TL;DR Helm 4, die erste bedeutende Aktualisierung des Kubernetes-Paketmanagers seit sechs Jahren, …
KServe wurde als CNCF-Inkubationsprojekt akzeptiert und bietet eine standardisierte Plattform für generative und prädiktive KI-Inferenz auf Kubernetes. Das Projekt hat sich seit seiner Gründung 2019 stetig weiterentwickelt und unterstützt nun zahlreiche Unternehmen in verschiedenen Branchen.
KServe ist eine leistungsfähige, verteilte Plattform für die KI-Inferenz, die speziell für Kubernetes entwickelt wurde. Sie ermöglicht die skalierbare Bereitstellung von Modellen aus verschiedenen Frameworks und bietet sowohl generative als auch prädiktive KI-Funktionalitäten. Die Plattform ist darauf ausgelegt, sowohl für schnelle Implementierungen als auch für unternehmensweite KI-Workloads geeignet zu sein.
Ursprünglich im Jahr 2019 als Teil des Kubeflow-Projekts von Google, IBM, Bloomberg, NVIDIA und Seldon ins Leben gerufen, wurde KServe im Februar 2022 an die LF AI & Data Foundation übergeben. Im September 2022 wurde das Projekt von KFServing in KServe umbenannt und hat sich seither als eigenständiges Projekt etabliert. Der Schritt zur CNCF-Inkubation im September 2025 markiert einen weiteren wichtigen Meilenstein in der Entwicklung von KServe.
KServe hat sich in verschiedenen Branchen und Regionen etabliert und wird von namhaften Unternehmen wie Bloomberg, Red Hat, Cloudera, CyberAgent, Nutanix, SAP und NVIDIA genutzt. Die Anwendungsfälle reichen von großen, mehrcloudfähigen Unternehmensplattformen bis hin zu spezialisierten internen KI-Infrastrukturen. Diese Flexibilität ermöglicht es KServe, sowohl generative als auch prädiktive KI-Workloads in großem Maßstab zu unterstützen.
KServe integriert sich nahtlos in eine Vielzahl von CNCF-Projekten, darunter Kubernetes, Envoy, Kubeflow, vLLM, llm-d, LMCache, die Kubernetes Gateway API und Knative. Diese Integrationen ermöglichen eine umfassende Unterstützung für verschiedene KI-Frameworks wie TensorFlow, PyTorch, scikit-learn und ONNX.
Die Plattform nutzt Kubernetes Custom Resource Definitions (CRDs), um die Bereitstellung von ML-Modellen zu vereinfachen. KServe v0.15 hat auch die Unterstützung für den Envoy AI Gateway eingeführt, was die Funktionalität der Plattform weiter verbessert. Darüber hinaus bietet KServe eine Integration mit dem ModelMesh, um das Management und Routing von Modellen zu optimieren.
Die Community hinter KServe ist aktiv und wächst, mit über 4.600 GitHub-Stars und 2.400 Pull-Requests. Diese Beteiligung zeigt das Engagement der Entwickler und Unternehmen, die KServe in ihre Infrastruktur integrieren.
Die Aufnahme von KServe in die CNCF-Inkubation stellt einen bedeutenden Fortschritt für die Standardisierung der KI-Inferenz auf Kubernetes dar. Angesichts der zunehmenden Bedeutung von KI-Anwendungen wird KServe voraussichtlich eine zentrale Rolle in der Entwicklung und Bereitstellung von KI-Services in der Cloud-nativen Landschaft spielen.
Dieser Beitrag wurde automatisch aus dem englischsprachigen Original erstellt und auf Deutsch zusammengefasst. Wir bieten diesen Service an, um Sie bei der oft zerklüfteten und überwiegend englischsprachigen News-Situation im Bereich Cloud-Native Software, Souveräne Cloud, Kubernetes und Container-Technologien zeitnah auf Deutsch zu informieren.
TL;DR Helm 4, die erste bedeutende Aktualisierung des Kubernetes-Paketmanagers seit sechs Jahren, …
TL;DR Die Cloud Native Computing Foundation (CNCF) hat die neue Zertifizierung „Certified Cloud …
TL;DR Die Cloud Native Computing Foundation (CNCF) hat das Certified Kubernetes AI Conformance …