KServe wird ein CNCF-Inkubationsprojekt
Quelle: CNCF Blog
2 Minuten Lesezeit

KServe wird ein CNCF-Inkubationsprojekt

KServe wurde als CNCF-Inkubationsprojekt akzeptiert und bietet eine standardisierte Plattform für generative und prädiktive KI-Inferenz auf Kubernetes. Das Projekt hat sich seit seiner

TL;DR

KServe wurde als CNCF-Inkubationsprojekt akzeptiert und bietet eine standardisierte Plattform für generative und prädiktive KI-Inferenz auf Kubernetes. Das Projekt hat sich seit seiner Gründung 2019 stetig weiterentwickelt und unterstützt nun zahlreiche Unternehmen in verschiedenen Branchen.

Hauptinhalt

KServe ist eine leistungsfähige, verteilte Plattform für die KI-Inferenz, die speziell für Kubernetes entwickelt wurde. Sie ermöglicht die skalierbare Bereitstellung von Modellen aus verschiedenen Frameworks und bietet sowohl generative als auch prädiktive KI-Funktionalitäten. Die Plattform ist darauf ausgelegt, sowohl für schnelle Implementierungen als auch für unternehmensweite KI-Workloads geeignet zu sein.

Ursprünglich im Jahr 2019 als Teil des Kubeflow-Projekts von Google, IBM, Bloomberg, NVIDIA und Seldon ins Leben gerufen, wurde KServe im Februar 2022 an die LF AI & Data Foundation übergeben. Im September 2022 wurde das Projekt von KFServing in KServe umbenannt und hat sich seither als eigenständiges Projekt etabliert. Der Schritt zur CNCF-Inkubation im September 2025 markiert einen weiteren wichtigen Meilenstein in der Entwicklung von KServe.

KServe hat sich in verschiedenen Branchen und Regionen etabliert und wird von namhaften Unternehmen wie Bloomberg, Red Hat, Cloudera, CyberAgent, Nutanix, SAP und NVIDIA genutzt. Die Anwendungsfälle reichen von großen, mehrcloudfähigen Unternehmensplattformen bis hin zu spezialisierten internen KI-Infrastrukturen. Diese Flexibilität ermöglicht es KServe, sowohl generative als auch prädiktive KI-Workloads in großem Maßstab zu unterstützen.

Technische Details/Implikationen

KServe integriert sich nahtlos in eine Vielzahl von CNCF-Projekten, darunter Kubernetes, Envoy, Kubeflow, vLLM, llm-d, LMCache, die Kubernetes Gateway API und Knative. Diese Integrationen ermöglichen eine umfassende Unterstützung für verschiedene KI-Frameworks wie TensorFlow, PyTorch, scikit-learn und ONNX.

Die Plattform nutzt Kubernetes Custom Resource Definitions (CRDs), um die Bereitstellung von ML-Modellen zu vereinfachen. KServe v0.15 hat auch die Unterstützung für den Envoy AI Gateway eingeführt, was die Funktionalität der Plattform weiter verbessert. Darüber hinaus bietet KServe eine Integration mit dem ModelMesh, um das Management und Routing von Modellen zu optimieren.

Die Community hinter KServe ist aktiv und wächst, mit über 4.600 GitHub-Stars und 2.400 Pull-Requests. Diese Beteiligung zeigt das Engagement der Entwickler und Unternehmen, die KServe in ihre Infrastruktur integrieren.

Fazit/Ausblick

Die Aufnahme von KServe in die CNCF-Inkubation stellt einen bedeutenden Fortschritt für die Standardisierung der KI-Inferenz auf Kubernetes dar. Angesichts der zunehmenden Bedeutung von KI-Anwendungen wird KServe voraussichtlich eine zentrale Rolle in der Entwicklung und Bereitstellung von KI-Services in der Cloud-nativen Landschaft spielen.

Originalartikel

Veröffentlicht von CNCF Blog

Zum Original-Artikel

Automatisierte Zusammenfassung

Dieser Beitrag wurde automatisch aus dem englischsprachigen Original erstellt und auf Deutsch zusammengefasst. Wir bieten diesen Service an, um Sie bei der oft zerklüfteten und überwiegend englischsprachigen News-Situation im Bereich Cloud-Native Software, Souveräne Cloud, Kubernetes und Container-Technologien zeitnah auf Deutsch zu informieren.

Ähnliche Artikel