{
  "version": "https://jsonfeed.org/version/1.1",
  "title": "Industry News | ayedo",
  "home_page_url": "https://ayedo.de/",
  "feed_url": "https://ayedo.de/news/",
  "description": "Aktuelle Nachrichten aus der Cloud-Native, Kubernetes und DevOps Welt. Automatisch aggregiert und auf Deutsch zusammengefasst.",
  "icon": "https://ayedo.de/ayedo-logo-color.png",
  "favicon": "https://ayedo.de/ayedo-logo-color.png",
  "authors": [
    {
      "name": "Fabian Peter",
      "url": "https://www.linkedin.com/in/derfabianpeter/"
    }
  ],
  "language": "de",
  "items": [{
      "id": "https://ayedo.de/news/the-platform-under-the-model-how-cloud-native-powers-ai-engineering-in-production/",
      "url": "https://ayedo.de/news/the-platform-under-the-model-how-cloud-native-powers-ai-engineering-in-production/",
      "title": "Die Plattform im Modell: Wie Cloud Native KI-Engineering in der Produktion unterstützt",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eAI-Workloads finden zunehmend Anwendung in Produktionsumgebungen auf \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e, jedoch stehen viele Teams vor Herausforderungen beim Übergang von Modellen zu zuverlässigen Systemen. Die \u003ca href=\"/kubernetes/\"\u003eCloud-Native-Ökosystem\u003c/a\u003e bietet eine Vielzahl von Tools und Standards, um diesen Übergang zu erleichtern, einschließlich dynamischer Ressourcenallokation, Inferenz-Routing und Observabilität.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Disziplin des AI-Engineerings konzentriert sich auf den Aufbau zuverlässiger, produktionsgerechter Systeme, die AI-Modelle als Komponenten nutzen. Dies geht über das Training von Modellen und das Design von Prompts hinaus und umfasst die operativen Herausforderungen, die Teams bei der Durchführung von Inferenz in großem Maßstab begegnen. Wichtige Aspekte sind die Bereitstellung von Modellen mit niedriger Latenz und hoher Verfügbarkeit, effizientes Scheduling von GPU- und Beschleuniger-Ressourcen, sowie das Management von Modellversionen und Rollouts in mehrmandantenfähigen Umgebungen.\u003c/p\u003e\n\u003cp\u003eDie \u003ca href=\"/kubernetes/\"\u003eCloud-Native-Umgebung\u003c/a\u003e hat sich über die Jahre hinweg entwickelt und bietet viele Lösungen für diese Infrastrukturprobleme. Kubernetes hat sich als die zentrale Orchestrierungsschicht für AI-Inferenz und -Training etabliert. Eine aktuelle Umfrage zeigt, dass 82 % der Container-Nutzer Kubernetes in der Produktion einsetzen. Eine bedeutende Neuerung ist die dynamische Ressourcenallokation (DRA), die in Kubernetes 1.34 in den allgemeinen verfügbaren Status übergegangen ist. DRA ermöglicht eine präzisere und topology-bewusste GPU-Zuteilung.\u003c/p\u003e\n\u003cp\u003eFür das Routing von Inferenzanfragen steht die Inference Gateway API zur Verfügung, die Kubernetes-native APIs bereitstellt, um Anfragen basierend auf Modellnamen und Endpunktgesundheit zu steuern. Dies ermöglicht es Plattformteams, mehrere GenAI-Workloads auf gemeinsamen Modellserver-Pools zu betreiben, was die Ressourcennutzung optimiert.\u003c/p\u003e\n\u003cp\u003eIm Bereich der Observabilität sind OpenTelemetry und Prometheus nach wie vor entscheidend. AI-Workloads bringen neue Metriken mit sich, die neben den traditionellen Infrastrukturmetriken erfasst werden müssen. Tools wie der inference-perf-Benchmark helfen, Leistungsmetriken von großen Sprachmodellen zu standardisieren und in Prometheus zu integrieren.\u003c/p\u003e\n\u003cp\u003eKubeflow hat sich als wichtiges Projekt etabliert, das Pipeline-Orchestrierung, Experimentverfolgung und Modellbereitstellung bietet. Kueue unterstützt die Job-Queue und faire Planung für Batch- und Trainings-Workloads. Für Governance und Sicherheit sorgen Open Policy Agent (OPA) sowie SPIFFE/SPIRE, die die notwendigen Governance-Primitives für den produktiven Einsatz von AI bereitstellen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Herausforderungen, die sich aus der Integration von AI in \u003ca href=\"/kubernetes/\"\u003eCloud-Native-Umgebungen\u003c/a\u003e ergeben, erfordern ein tiefes Verständnis der neuen Arbeitslastmuster. AI-Entwickler müssen sich mit Kubernetes vertraut machen, insbesondere mit der Inferenz-Serving-Architektur. Die Verwendung von DRA zur Verwaltung von GPU-Ressourcen und die Instrumentierung mit OpenTelemetry sind von entscheidender Bedeutung, um die Effizienz zu maximieren. Plattformingenieure müssen die Anforderungen an die Autoskalierung basierend auf Token-Durchsatz verstehen, um eine optimale Leistung sicherzustellen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Kluft zwischen AI-Praktikern und Cloud-Native-Praktikern muss geschlossen werden, um die Effizienz und Zuverlässigkeit der AI-Workloads in Produktionsumgebungen zu steigern. Die Integration bewährter Cloud-Native-Praktiken in AI-Projekte wird entscheidend sein, um die Herausforderungen der Zukunft zu meistern.\u003c/p\u003e\n",
      "summary": "TL;DR AI-Workloads finden zunehmend Anwendung in Produktionsumgebungen auf Kubernetes, jedoch stehen viele Teams vor Herausforderungen beim Übergang von Modellen zu zuverlässigen Systemen. Die Cloud-Native-Ökosystem bietet eine Vielzahl von Tools und Standards, um diesen Übergang zu erleichtern, einschließlich dynamischer Ressourcenallokation, Inferenz-Routing und Observabilität.\nHauptinhalt Die Disziplin des AI-Engineerings konzentriert sich auf den Aufbau zuverlässiger, produktionsgerechter Systeme, die AI-Modelle als Komponenten nutzen. Dies geht über das Training von Modellen und das Design von Prompts hinaus und umfasst die operativen Herausforderungen, die Teams bei der Durchführung von Inferenz in großem Maßstab begegnen. Wichtige Aspekte sind die Bereitstellung von Modellen mit niedriger Latenz und hoher Verfügbarkeit, effizientes Scheduling von GPU- und Beschleuniger-Ressourcen, sowie das Management von Modellversionen und Rollouts in mehrmandantenfähigen Umgebungen.\n",
      "image": "https://ayedo.de/the-platform-under-the-model-how-cloud-native-powers-ai-engineering-in-production.png",
      "date_published": "2026-03-26T09:07:14Z",
      "date_modified": "2026-03-26T09:07:14Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","ai-engineering","kubernetes","inferenz-routing","ressourcenallokation"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/announcing-kubescape-4-0-enterprise-stability-meets-the-ai-era/",
      "url": "https://ayedo.de/news/announcing-kubescape-4-0-enterprise-stability-meets-the-ai-era/",
      "title": "Ankündigung von Kubescape 4.0: Unternehmensstabilität trifft auf die KI-Ära",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Veröffentlichung von Kubescape 4.0 bringt bedeutende Verbesserungen in der \u003ca href=\"/kubernetes/\"\u003eKubernetes-Sicherheit\u003c/a\u003e, insbesondere durch die allgemeine Verfügbarkeit der Runtime Threat Detection und des Kubescape Storage. Die neue Version ermöglicht eine proaktive Sicherheitsüberwachung und bietet spezielle Funktionen für KI-Agenten, um sowohl ihre Sicherheitslage als auch die von Kubernetes-Clustern zu analysieren.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eKubescape 4.0 stellt einen wichtigen Fortschritt in der Open-Source-\u003ca href=\"/kubernetes/\"\u003eKubernetes-Sicherheit\u003c/a\u003e dar, indem es unternehmensgerechte Stabilität und fortschrittliche Bedrohungserkennung bietet. Ein zentrales Merkmal dieser Version ist die allgemeine Verfügbarkeit der Runtime Threat Detection, die auf CEL-basierten Erkennungsregeln basiert. Diese Regeln sind effizient und ermöglichen den direkten Zugriff auf Kubescape-Anwendungsprofile, die als Sicherheitsgrundlage für die Workloads dienen.\u003c/p\u003e\n\u003cp\u003eDie Runtime Threat Detection überwacht eine Vielzahl von Ereignissen, darunter Systeminteraktionen wie Prozesse und Systemaufrufe, Netzwerkanfragen sowie Aktivitäten im Dateisystem. Um die Benutzerfreundlichkeit zu erhöhen, werden Regeln und Regelbindungen jetzt als \u003ca href=\"/kubernetes/\"\u003eKubernetes Custom Resource Definitions (CRDs)\u003c/a\u003e verwaltet. Alerts können an bestehende Systeme wie AlertManager, SIEM, Syslog und HTTP-Webhooks exportiert werden.\u003c/p\u003e\n\u003cp\u003eEin weiteres wichtiges Feature ist das Kubescape Storage, das nun ebenfalls die allgemeine Verfügbarkeit erreicht hat. Dieses Modul nutzt die Kubernetes Aggregated API, um als zentrales Repository für alle sicherheitsrelevanten Metadaten zu fungieren. Durch die Auslagerung von benutzerdefinierten Objekten wie Anwendungsprofilen und Schwachstellenmanifeste in diesen dedizierten Speicherbereich wird sichergestellt, dass sicherheitsrelevante Daten die Standard-ETCD-Instanz nicht überlasten. Diese Architektur ist für große, hochdichte Cluster optimiert und bietet die erforderliche Leistung für moderne Unternehmensumgebungen.\u003c/p\u003e\n\u003cp\u003eAuf Basis des Feedbacks der Community wurde der Host-Sensor in Kubescape 4.0 entfernt, da er als komplex und schwer zu überwachen galt. Die Funktionen des Host-Agenten wurden direkt in den Node-Agenten integriert, wodurch die Notwendigkeit für temporäre, hochprivilegierte Pods entfällt. Diese Änderung trägt zu einer saubereren Clusterumgebung bei und erleichtert die Überprüfung der Sicherheitslage.\u003c/p\u003e\n\u003cp\u003eEin bedeutendes Merkmal von Kubescape 4.0 ist die Integration von Funktionen für KI-Agenten. Diese neue KAgent-native Plug-in ermöglicht es KI-Assistenten, die Sicherheitslage von Kubernetes-Clustern direkt zu analysieren. Dazu gehören Sicherheitsüberprüfungen auf Schwachstellen, detaillierte Handlungsempfehlungen zur Behebung von Sicherheitsproblemen sowie eine Runtime-Observabilität, die es KI-Agenten ermöglicht, das Verhalten von \u003ca href=\"/kubernetes/\"\u003eContainern\u003c/a\u003e in Echtzeit zu überwachen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Einführung der Runtime Threat Detection und des Kubescape Storage stellt einen bedeutenden Fortschritt in der Sicherheitsarchitektur dar. Durch den Einsatz von CEL-basierten Regeln wird die Effizienz der Bedrohungserkennung erhöht, während die Aggregated API eine verbesserte Handhabung von Sicherheitsmetadaten ermöglicht. Die Vereinfachung der Agentenarchitektur sorgt für eine stabilere und auditierbare Sicherheitslage, die insbesondere für große Unternehmen von Bedeutung ist.\u003c/p\u003e\n\u003cp\u003eDie neuen Funktionen für KI-Agenten sind besonders relevant angesichts der zunehmenden Autonomie dieser Systeme. Die Implementierung robuster Sicherheitsrichtlinien ist entscheidend, um potenzielle Risiken zu minimieren und die Integrität der Infrastruktur zu gewährleisten.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eMit Kubescape 4.0 wird ein wichtiger Schritt in der Weiterentwicklung der Kubernetes-Sicherheit vollzogen, insbesondere im Hinblick auf die Integration von KI-Technologien. Die neuen Funktionen bieten sowohl Sicherheitsverantwortlichen als auch Entwicklern wertvolle Werkzeuge, um die Herausforderungen der modernen \u003ca href=\"/kubernetes/\"\u003eCloud-nativen\u003c/a\u003e Landschaft zu bewältigen.\u003c/p\u003e\n",
      "summary": "TL;DR Die Veröffentlichung von Kubescape 4.0 bringt bedeutende Verbesserungen in der Kubernetes-Sicherheit, insbesondere durch die allgemeine Verfügbarkeit der Runtime Threat Detection und des Kubescape Storage. Die neue Version ermöglicht eine proaktive Sicherheitsüberwachung und bietet spezielle Funktionen für KI-Agenten, um sowohl ihre Sicherheitslage als auch die von Kubernetes-Clustern zu analysieren.\nHauptinhalt Kubescape 4.0 stellt einen wichtigen Fortschritt in der Open-Source-Kubernetes-Sicherheit dar, indem es unternehmensgerechte Stabilität und fortschrittliche Bedrohungserkennung bietet. Ein zentrales Merkmal dieser Version ist die allgemeine Verfügbarkeit der Runtime Threat Detection, die auf CEL-basierten Erkennungsregeln basiert. Diese Regeln sind effizient und ermöglichen den direkten Zugriff auf Kubescape-Anwendungsprofile, die als Sicherheitsgrundlage für die Workloads dienen.\n",
      "image": "https://ayedo.de/announcing-kubescape-4-0-enterprise-stability-meets-the-ai-era.png",
      "date_published": "2026-03-26T08:00:00Z",
      "date_modified": "2026-03-26T08:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubescape","kubernetes-sicherheit","runtime-threat-detection","open-source-sicherheit"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/f5-elevates-to-gold-membership-in-the-cloud-native-computing-foundation/",
      "url": "https://ayedo.de/news/f5-elevates-to-gold-membership-in-the-cloud-native-computing-foundation/",
      "title": "F5 Erhält Goldmitgliedschaft in der Cloud Native Computing Foundation",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eF5 hat seine Mitgliedschaft in der \u003ca href=\"https://cncf.io/\"\u003eCloud Native Computing Foundation\u003c/a\u003e (CNCF) auf Gold erhöht, um die Entwicklung von Open-Source-Technologien im Bereich \u003ca href=\"/cloud-native/\"\u003eCloud Native\u003c/a\u003e zu fördern. Diese Partnerschaft fokussiert sich auf Schlüsselprojekte wie OpenTelemetry, \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e Ingress und Gateway API, um sichere Netzwerkinfrastrukturen und AI-gesteuerte Observabilität zu verbessern.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eF5, ein Anbieter für hybride Multicloud-Anwendungsbereitstellung und Sicherheit, hat seine Mitgliedschaft in der CNCF auf Gold erhöht. Diese Entscheidung unterstreicht F5s Engagement für die Förderung von Innovationen im Bereich Cloud Native. Als Unternehmenssponsor von NGINX und aktiver Mitwirkender an verschiedenen CNCF-Projekten, zielt F5 darauf ab, die Sicherheit und Skalierbarkeit von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e und Multicloud-Infrastrukturen zu verbessern.\u003c/p\u003e\n\u003cp\u003eDie Goldmitgliedschaft ermöglicht F5 eine intensivere Zusammenarbeit mit der CNCF-Community, um die Entwicklung und Integration von Technologien voranzutreiben, die für moderne Anwendungen und AI-Workloads entscheidend sind. F5 bringt umfassende Expertise in den Bereichen Netzwerklösungen, Sicherheit und AI-gesteuerte Observabilität ein. Zu den wesentlichen Beiträgen zählen die Weiterentwicklung von Standards für Kubernetes Ingress und Gateway API sowie die Verbesserung von Service-Mesh-Funktionen durch Tools wie Istio.\u003c/p\u003e\n\u003cp\u003eDie CNCF hat die Bedeutung von F5s Engagement für die Entwicklung sicherer und skalierbarer Infrastrukturen hervorgehoben. Insbesondere die Unterstützung bei der Bereitstellung von AI-Inferenz-Workloads wird als entscheidend für die Produktion angesehen, da diese Workloads auf skalierbare Infrastrukturen angewiesen sind.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Teilnahme an der CNCF als Goldmitglied ermöglicht F5, engere Beziehungen zu anderen führenden Unternehmen in der \u003ca href=\"/cloud-native/\"\u003eCloud-Native\u003c/a\u003e Community zu pflegen. Dies fördert nicht nur die Zusammenarbeit an bestehenden Projekten, sondern auch die Entwicklung neuer Technologien, die auf die Herausforderungen der modernen Anwendungsbereitstellung und AI-Inferenz abzielen. Die verbesserten Standards für \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e Ingress und Gateway API tragen dazu bei, die Integration und den Betrieb von Anwendungen in multicloud Umgebungen zu optimieren.\u003c/p\u003e\n\u003cp\u003eDarüber hinaus unterstützt F5 die Entwicklung von Tools, die es Organisationen ermöglichen, nicht nur aktuelle Workloads zu verwalten, sondern auch innovative Lösungen für zukünftige Herausforderungen zu schaffen. Die Fokussierung auf AI-gesteuerte Observabilität und die Integration von Echtzeit-Telemetrie in Anwendungen ist ein weiterer Schritt in Richtung einer robusteren und sichereren Cloud-Native-Infrastruktur.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eF5s Erhöhung zur Goldmitgliedschaft in der CNCF ist ein bedeutender Schritt zur Stärkung der Cloud-Native-Innovation. Diese Initiative wird die Entwicklung sicherer, skalierbarer Lösungen vorantreiben und die Zusammenarbeit innerhalb der Branche fördern, was letztlich zu einer verbesserten Anwendungsbereitstellung in komplexen Umgebungen führen wird.\u003c/p\u003e\n",
      "summary": "TL;DR F5 hat seine Mitgliedschaft in der Cloud Native Computing Foundation (CNCF) auf Gold erhöht, um die Entwicklung von Open-Source-Technologien im Bereich Cloud Native zu fördern. Diese Partnerschaft fokussiert sich auf Schlüsselprojekte wie OpenTelemetry, Kubernetes Ingress und Gateway API, um sichere Netzwerkinfrastrukturen und AI-gesteuerte Observabilität zu verbessern.\nHauptinhalt F5, ein Anbieter für hybride Multicloud-Anwendungsbereitstellung und Sicherheit, hat seine Mitgliedschaft in der CNCF auf Gold erhöht. Diese Entscheidung unterstreicht F5s Engagement für die Förderung von Innovationen im Bereich Cloud Native. Als Unternehmenssponsor von NGINX und aktiver Mitwirkender an verschiedenen CNCF-Projekten, zielt F5 darauf ab, die Sicherheit und Skalierbarkeit von Kubernetes und Multicloud-Infrastrukturen zu verbessern.\n",
      "image": "https://ayedo.de/f5-elevates-to-gold-membership-in-the-cloud-native-computing-foundation.png",
      "date_published": "2026-03-26T08:00:00Z",
      "date_modified": "2026-03-26T08:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","f5","kubernetes","ai-observability","multicloud"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/cncf-backstage-documentary-highlights-project-evolution-from-development-to-global-open-source-standard-for-platform-engineering/",
      "url": "https://ayedo.de/news/cncf-backstage-documentary-highlights-project-evolution-from-development-to-global-open-source-standard-for-platform-engineering/",
      "title": "CNCF Backstage-Dokumentation hebt die Projektentwicklung zum globalen Open-Source-Standard für Platform Engineering hervor",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Cloud Native Computing Foundation (CNCF) hat eine Dokumentation über das Backstage-Projekt veröffentlicht, das sich von einem internen Tool bei Spotify zu einem globalen Open-Source-Standard für \u003ca href=\"/platform/\"\u003ePlatform Engineering\u003c/a\u003e entwickelt hat. Backstage verbessert die Entwicklererfahrung, indem es komplexe Infrastrukturen vereinfacht und die Einarbeitungszeit für Entwickler reduziert.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Dokumentation mit dem Titel „Backstage: From Spreadsheet to Standard“ beleuchtet die Entwicklung des Backstage-Projekts, das ursprünglich als internes Entwicklerportal bei Spotify eingeführt wurde. Ziel war es, die Fragmentierung zu reduzieren, die Effizienz zu steigern und die Entwicklererfahrung zu verbessern. Innerhalb von nur fünf Jahren hat sich Backstage zu einem führenden Open-Source-Framework für den Aufbau interner Entwicklerportale (IDPs) entwickelt und wird mittlerweile als globaler Standard im Bereich \u003ca href=\"/platform/\"\u003ePlatform Engineering\u003c/a\u003e anerkannt.\u003c/p\u003e\n\u003cp\u003eBackstage ermöglicht eine einheitliche Entwicklererfahrung, die es Teams erlaubt, komplexe Infrastrukturprojekte effizient zu verwalten. Durch die Reduzierung der Einarbeitungszeit für Entwickler wird die Skalierung von Organisationen sicherer und effizienter. Die Dokumentation würdigt die Arbeit von [Platform Engineering]-Teams, cloud-nativen Praktikern und Entwicklern, die zur Entwicklung und Verbreitung von Backstage beigetragen haben.\u003c/p\u003e\n\u003cp\u003eDie Popularität und das Wachstum von Backstage sind auch in den jährlichen Projektgeschwindigkeitsberichten der CNCF dokumentiert. Im Jahr 2020, als Backstage zur CNCF beitrug, belegte das Projekt den achten Platz unter über 100 Projekten. Bis 2025 verbesserte sich diese Platzierung auf den sechsten Platz unter mehr als 230 Projekten, was die starke Projektgesundheit und das Momentum innerhalb des \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Ökosystems widerspiegelt.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eBackstage bietet eine Plattform, die es Unternehmen ermöglicht, interne Entwicklungsprozesse zu standardisieren und zu optimieren. Durch die Implementierung von Backstage können Organisationen die Zusammenarbeit zwischen verschiedenen Teams fördern und die Effizienz ihrer Entwicklungszyklen steigern. Die Verwendung von Backstage als Teil der Entwicklerinfrastruktur kann dazu beitragen, die Qualität der Softwareprodukte zu verbessern und die Time-to-Market für neue Funktionen zu verkürzen.\u003c/p\u003e\n\u003cp\u003eDie Entwicklung von Backstage als Open-Source-Projekt zeigt zudem, wie wichtig die Community-Zusammenarbeit in der Softwareentwicklung ist. Die Beteiligung einer Vielzahl von Entwicklern und Unternehmen trägt zur kontinuierlichen Verbesserung und Anpassung des Projekts an die Bedürfnisse der Nutzer bei.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Veröffentlichung der Dokumentation über Backstage verdeutlicht die Bedeutung von Open-Source-Lösungen im Bereich \u003ca href=\"/platform/\"\u003ePlatform Engineering\u003c/a\u003e. Die Weiterentwicklung von Backstage wird voraussichtlich weiterhin eine zentrale Rolle in der Optimierung von Entwicklungsprozessen und der Verbesserung der Entwicklererfahrung spielen.\u003c/p\u003e\n",
      "summary": "TL;DR Die Cloud Native Computing Foundation (CNCF) hat eine Dokumentation über das Backstage-Projekt veröffentlicht, das sich von einem internen Tool bei Spotify zu einem globalen Open-Source-Standard für Platform Engineering entwickelt hat. Backstage verbessert die Entwicklererfahrung, indem es komplexe Infrastrukturen vereinfacht und die Einarbeitungszeit für Entwickler reduziert.\nHauptinhalt Die Dokumentation mit dem Titel „Backstage: From Spreadsheet to Standard“ beleuchtet die Entwicklung des Backstage-Projekts, das ursprünglich als internes Entwicklerportal bei Spotify eingeführt wurde. Ziel war es, die Fragmentierung zu reduzieren, die Effizienz zu steigern und die Entwicklererfahrung zu verbessern. Innerhalb von nur fünf Jahren hat sich Backstage zu einem führenden Open-Source-Framework für den Aufbau interner Entwicklerportale (IDPs) entwickelt und wird mittlerweile als globaler Standard im Bereich Platform Engineering anerkannt.\n",
      "image": "https://ayedo.de/cncf-backstage-documentary-highlights-project-evolution-from-development-to-global-open-source-standard-for-platform-engineering.png",
      "date_published": "2026-03-25T17:15:00Z",
      "date_modified": "2026-03-25T17:15:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","backstage","platform-engineering","developer-experience","internal-developer-portals"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/higress-joins-cncf-delivering-an-enterprise-grade-ai-gateway-and-a-seamless-path-from-nginx-ingress/",
      "url": "https://ayedo.de/news/higress-joins-cncf-delivering-an-enterprise-grade-ai-gateway-and-a-seamless-path-from-nginx-ingress/",
      "title": "Higress tritt der CNCF bei: Bereitstellung eines Enterprise-Grade AI Gateways und nahtloser Übergang von Nginx Ingress",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eHigress ist ein neues, leistungsstarkes API-Gateway, das der Cloud Native Computing Foundation (CNCF) als Sandbox-Projekt beigetreten ist. Es vereint Ingress- und AI-Gateway-Funktionen und bietet eine sichere, skalierbare Lösung zur Verwaltung von \u003ca href=\"/kubernetes/\"\u003eCloud-nativen\u003c/a\u003e und KI-Workloads.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eHigress hat die Abstimmung des Technischen Aufsichtsausschusses (TOC) der CNCF bestanden und ist nun Teil des CNCF-Ökosystems. Das API-Gateway wurde auf Basis von Envoy und Istio entwickelt und zielt darauf ab, die Komplexität des Betriebs von Cloud-nativen und KI-Anwendungen zu reduzieren. Es integriert die Funktionen eines Traffic Gateways, Microservices Gateways und AI Gateways in einer einzigen Kontrollinstanz.\u003c/p\u003e\n\u003cp\u003eDie Kernkompetenzen von Higress beruhen auf zwei Hauptsäulen: den Ingress-Controller- und Gateway-Funktionen sowie den AI-nativen Gateway-Funktionen. Als ausgereifter \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e Ingress Controller unterstützt Higress vollständig die Gateway-API und deren Inference Extension. Mit der geplanten Ablösung von Nginx Ingress im Jahr 2026 stellt Higress eine sichere, sofort einsatzbereite Alternative dar. Es bietet volle Kompatibilität mit gängigen Nginx Ingress-Anmerkungen und ersetzt das anfällige Konfigurationsinjektionsmodell durch ein robustes xDS-Kontrollsystem und eine Wasm-Sandbox, was die Sicherheitsrisiken veralteter Architekturen eliminiert.\u003c/p\u003e\n\u003cp\u003eIm Bereich der AI-nativen Gateway-Funktionen behandelt Higress KI-Verkehr als gleichwertig. Es bietet native Unterstützung für die Invocation von Large Language Models (LLM), das Model Context Protocol (MCP) und vielfältige KI-Inferenzszenarien. Zu den Funktionen gehören tokenbasierte Ratenbegrenzung, Multi-Model-Fallback, Integration von Retrieval-Augmented Generation (RAG), modellbewusste Routenführung und intelligentes Lastenbalancing. Diese Ansätze standardisieren, wie cloud-native Anwendungen LLMs konsumieren, und positionieren Higress als zentrale Anlaufstelle für KI-Agenten und LLM-Verkehr.\u003c/p\u003e\n\u003cp\u003eHigress hat sich bereits in verschiedenen anspruchsvollen Produktionsumgebungen bewährt, mit Adoptern aus verschiedenen Branchen, darunter Internetdienste, Finanzen, Reisen, Hardware und Unterhaltung. Zu den aktuellen Nutzern zählen Unternehmen wie Alibaba Group, Ant Group und DJI, die Higress nicht nur für robustes Cloud-natives Traffic-Routing, sondern auch für die Bereitstellung von AI-Gateway-Funktionen in ihren Anwendungen nutzen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Entscheidung, der CNCF beizutreten, ist strategisch und zielt darauf ab, die Zusammenarbeit mit anderen führenden Projekten wie \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e und Envoy zu intensivieren. Dies wird Higress ermöglichen, technische Standards zu co-kreieren und seine Rolle in modernen cloud-nativen Architekturen zu festigen. Die neutrale Governance der CNCF fördert eine aktive, vielfältige Entwickler- und Benutzerbasis, die für die langfristige Vitalität des Projekts entscheidend ist. Zudem wird die Notwendigkeit einer Infrastruktur für KI-Anwendungen, die speziell für solche Workloads optimiert ist, immer dringlicher. Higress ist gut positioniert, um universelle Standards für AI-Gateways innerhalb der CNCF zu etablieren.\u003c/p\u003e\n\u003cp\u003eDie zukünftige Entwicklung von Higress wird sich auf zwei Hauptbereiche konzentrieren: die langfristige Kompatibilität mit Ingress-Standards und die kontinuierliche Erweiterung der AI-Fähigkeiten. Dies umfasst die Unterstützung der Gateway-API und die Bereitstellung umfassender Migrationslösungen für Nginx Ingress-Nutzer.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eHigress stellt einen bedeutenden Fortschritt in der Bereitstellung von API-Gateway-Lösungen dar und wird voraussichtlich eine Schlüsselrolle in der Evolution der Cloud-nativen und KI-Infrastruktur übernehmen. Die Integration in die CNCF bietet eine Plattform für weiteres Wachstum und Innovation.\u003c/p\u003e\n",
      "summary": "TL;DR Higress ist ein neues, leistungsstarkes API-Gateway, das der Cloud Native Computing Foundation (CNCF) als Sandbox-Projekt beigetreten ist. Es vereint Ingress- und AI-Gateway-Funktionen und bietet eine sichere, skalierbare Lösung zur Verwaltung von Cloud-nativen und KI-Workloads.\nHauptinhalt Higress hat die Abstimmung des Technischen Aufsichtsausschusses (TOC) der CNCF bestanden und ist nun Teil des CNCF-Ökosystems. Das API-Gateway wurde auf Basis von Envoy und Istio entwickelt und zielt darauf ab, die Komplexität des Betriebs von Cloud-nativen und KI-Anwendungen zu reduzieren. Es integriert die Funktionen eines Traffic Gateways, Microservices Gateways und AI Gateways in einer einzigen Kontrollinstanz.\n",
      "image": "https://ayedo.de/higress-joins-cncf-delivering-an-enterprise-grade-ai-gateway-and-a-seamless-path-from-nginx-ingress.png",
      "date_published": "2026-03-25T13:22:03Z",
      "date_modified": "2026-03-25T13:22:03Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","higress","api-gateway","kubernetes","ai-gateway"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/cncf-celebrates-innovators-advancing-cloud-native-at-kubecon-cloudnativecon-europe/",
      "url": "https://ayedo.de/news/cncf-celebrates-innovators-advancing-cloud-native-at-kubecon-cloudnativecon-europe/",
      "title": "CNCF feiert Innovatoren, die Cloud Native auf der KubeCon + CloudNativeCon Europa vorantreiben",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Cloud Native Computing Foundation (CNCF) hat auf der KubeCon + CloudNativeCon Europe 2026 die Gewinner der CNCF Community Awards bekannt gegeben. Die Auszeichnungen würdigen herausragende Beiträge zur \u003ca href=\"/cloud-native/\"\u003eCloud-Native-Community\u003c/a\u003e, darunter innovative Ansätze zur Skalierung von KI-Infrastrukturen und erfolgreiche Cloud-Migrationen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie CNCF hat im Rahmen der KubeCon + CloudNativeCon Europe 2026 in Amsterdam die CNCF Community Awards verliehen. Diese Auszeichnungen ehren Schlüsselpersonen, die durch ihre Beiträge zu CNCF-Projekten und Technischen Beratungsgremien (TAGs) maßgeblich zur Weiterentwicklung des \u003ca href=\"/cloud-native/\"\u003eCloud-Native-Ökosystems\u003c/a\u003e beigetragen haben. Die Preisverleihung fand während einer speziellen Zeremonie statt, bei der die Gewinner für ihre Verdienste gewürdigt wurden.\u003c/p\u003e\n\u003cp\u003eDie Outstanding Mentor Award wurde an Hung-Ying (Hydai) Tai verliehen, der als R\u0026amp;D-Manager bei Second State tätig ist. Tai hat sich durch seine Mentoring-Tätigkeiten im LFX Mentorship-Programm hervorgetan und zahlreiche Mentees bei der Umsetzung wichtiger Cloud-Native-Projekte unterstützt, darunter WASI-NN-Implementierungen und Optimierungen für große Sprachmodelle (LLMs).\u003c/p\u003e\n\u003cp\u003eEin weiterer bedeutender Preis ist der TAGGIE Award, der an Personen vergeben wird, die sich besonders für die Entwicklung der CNCF TAGs engagieren. Die diesjährigen Gewinner sind Yoshiyuki Tabata, Brandt Keller, Josh Gavant, Carol Valencia und Dylan Page. Diese Auszeichnung würdigt ihre Beiträge zur Skalierung der technischen und benutzergemeinschaftlichen Mitwirkung und zur Sicherstellung der Qualität und Integrität innerhalb des Cloud-Native-Ökosystems.\u003c/p\u003e\n\u003cp\u003eDer Top End User Award 2026 ging an die SNCF für ihre umfassende \u003ca href=\"/cloud-native/\"\u003eCloud-Migration\u003c/a\u003e und innovative private Cloud-Strategie. Die SNCF hat 70 % ihrer 2.000 Anwendungen in die Cloud migriert und nutzt \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e als einheitliche Abstraktionsschicht über öffentliche und private Umgebungen hinweg. Um die Datenhoheit für lokale Workloads zu gewährleisten, wurde eine private Cloud auf Basis von OpenStack aufgebaut, die öffentliche Cloud-Äquivalenz, vollständige Automatisierung und operationale Kontrolle auf einer leistungsstarken, offenen Plattform bietet.\u003c/p\u003e\n\u003cp\u003eDie Auszeichnung für den End User Case Study Contest erhielt Saxo Bank, die GitOps und deklarative Automatisierung über containerisierte Workloads hinaus erweitert hat. Saxo Bank entwickelte das Saxo Service Blueprint, um Herausforderungen bei der Integration von Kubernetes mit externen Unternehmenssystemen zu bewältigen. Durch den Einsatz von Kubernetes-Operatoren und GitOps ermöglicht die Bank eine automatisierte Bereitstellung, die manuelle Schritte eliminiert und über 1.800 automatisierte Operationen pro Pull-Request ausführt.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Auszeichnungen verdeutlichen die zunehmende Bedeutung von Mentorship und Community-Engagement in der Cloud-Native-Welt. Die Erfolge von SNCF und Saxo Bank zeigen, wie Unternehmen durch strategische Cloud-Migrationen und innovative Anwendungsarchitekturen Wettbewerbsvorteile erzielen können. Die Verwendung von Kubernetes als einheitliche Abstraktionsschicht und die Implementierung von GitOps sind entscheidende Trends, die die Effizienz und Agilität in der Softwareentwicklung fördern.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie CNCF Community Awards unterstreichen die Dynamik und Innovationskraft der Cloud-Native-Community. Die kontinuierliche Zusammenarbeit und der Wissensaustausch innerhalb dieser Gemeinschaft sind entscheidend für die Bewältigung zukünftiger Herausforderungen in der Cloud-Technologie.\u003c/p\u003e\n",
      "summary": "TL;DR Die Cloud Native Computing Foundation (CNCF) hat auf der KubeCon + CloudNativeCon Europe 2026 die Gewinner der CNCF Community Awards bekannt gegeben. Die Auszeichnungen würdigen herausragende Beiträge zur Cloud-Native-Community, darunter innovative Ansätze zur Skalierung von KI-Infrastrukturen und erfolgreiche Cloud-Migrationen.\nHauptinhalt Die CNCF hat im Rahmen der KubeCon + CloudNativeCon Europe 2026 in Amsterdam die CNCF Community Awards verliehen. Diese Auszeichnungen ehren Schlüsselpersonen, die durch ihre Beiträge zu CNCF-Projekten und Technischen Beratungsgremien (TAGs) maßgeblich zur Weiterentwicklung des Cloud-Native-Ökosystems beigetragen haben. Die Preisverleihung fand während einer speziellen Zeremonie statt, bei der die Gewinner für ihre Verdienste gewürdigt wurden.\n",
      "image": "https://ayedo.de/cncf-celebrates-innovators-advancing-cloud-native-at-kubecon-cloudnativecon-europe.png",
      "date_published": "2026-03-25T09:30:00Z",
      "date_modified": "2026-03-25T09:30:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubecon","cloud-migration","kubernetes","ai-infrastructure"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/announcing-the-release-of-kubevirt-v1-8/",
      "url": "https://ayedo.de/news/announcing-the-release-of-kubevirt-v1-8/",
      "title": "Ankündigung der Veröffentlichung von KubeVirt v1.8",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie KubeVirt Community hat die Version 1.8 veröffentlicht, die mit \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e v1.35 kompatibel ist. Zu den Hauptneuerungen gehören Verbesserungen im Bereich Confidential Computing, die Einführung einer Hypervisor-Abstraktionsschicht und neue Funktionen für die Netzwerk- und Speicherverwaltung.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Veröffentlichung von KubeVirt v1.8 markiert einen wichtigen Schritt in der Weiterentwicklung des Projekts, das sich auf die Integration von virtuellen Maschinen in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e fokussiert. Diese Version ist die dritte, die im Rahmen des Virt Enhancement Proposal (VEP) Prozesses entstanden ist, und zeigt eine zunehmende Aktivität und Beteiligung der Community. In dieser Version wurden zahlreiche neue Funktionen und Verbesserungen implementiert, die die Nutzung und Performance von KubeVirt optimieren.\u003c/p\u003e\n\u003cp\u003eIm Bereich der Rechenleistung hat die Confidential Computing Working Group bedeutende Fortschritte erzielt, indem sie die Unterstützung für Intel TDX Attestation integriert hat. Dies ermöglicht es, vertrauliche virtuelle Maschinen zu zertifizieren, die auf vertraulicher Hardware betrieben werden. Ein weiteres zentrales Feature ist die Einführung einer Hypervisor-Abstraktionsschicht, die KubeVirt die Integration mehrerer Hypervisor-Backends ermöglicht, ohne die standardmäßige KVM-Implementierung zu beeinträchtigen. Darüber hinaus wurde die Unterstützung für KI- und HPC-Workloads in virtuellen Maschinen verbessert, was eine nahezu native Performance durch die Einführung einer PCIe NUMA Topologie ermöglicht.\u003c/p\u003e\n\u003cp\u003eIm Netzwerkbereich wurde das \u003ccode\u003epasst\u003c/code\u003e Binding von einem Plugin zu einem Kernbinding befördert, was eine signifikante Verbesserung darstellt. Zudem ist es nun möglich, Netzwerk-Adapter-Definitionen (NAD) live zu aktualisieren, ohne dass ein Neustart der virtuellen Maschine erforderlich ist. Diese Änderungen reduzieren die API-Aufrufe des virt-controllers und beseitigen einen Performance-Flaschenhals bei der Aktivierung von VMs im großen Maßstab.\u003c/p\u003e\n\u003cp\u003eIm Bereich Speicher wurden zwei neue Funktionen eingeführt: \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003ePath Volumes und inkrementelle Backups mit Changed Block Tracking (CBT). ContainerPath Volumes ermöglichen es, Container-Pfade für den VM-Speicher zuzuordnen, was die Portabilität und Konfigurationsmöglichkeiten verbessert. Die inkrementellen Backups nutzen die Backup-Fähigkeiten von QEMU und libvirt, um speicherunabhängige inkrementelle VM-Backups zu ermöglichen, die nur die geänderten Daten erfassen. Dies reduziert den Speicherbedarf und minimiert den Netzwerkverkehr des Clusters.\u003c/p\u003e\n\u003cp\u003eDie Gruppe für Skalierung und Performance hat ebenfalls Verbesserungen vorgestellt. Die KWOK-Leistungstests wurden auf 8000 virtuelle Maschineninstanzen (VMIs) erhöht, wobei die Ergebnisse zeigen, dass die Kontrollebene von KubeVirt auch bei steigenden VMI-Zahlen gut funktioniert. Die Speichernutzung hat in diesem Zusammenhang zugenommen, wobei die durchschnittliche Speichernutzung des virt-api von 140 MB auf 170 MB und die des virt-controllers von 65 MB auf 1400 MB gestiegen ist.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Einführung der Hypervisor-Abstraktionsschicht ermöglicht eine flexible Nutzung verschiedener Hypervisoren und könnte die Akzeptanz von KubeVirt bei Unternehmen erhöhen, die unterschiedliche Virtualisierungsstrategien verfolgen. Die Verbesserungen im Bereich Confidential Computing könnten insbesondere für Unternehmen von Interesse sein, die Sicherheitsanforderungen erfüllen müssen. Die neuen Speicher- und Netzwerkfunktionen optimieren die Effizienz und Benutzerfreundlichkeit, was insbesondere in \u003ca href=\"/kubernetes/\"\u003eCloud-native\u003c/a\u003e Umgebungen von Bedeutung ist.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Veröffentlichung von KubeVirt v1.8 zeigt das Engagement der Community und die kontinuierliche Verbesserung des Projekts. Zukünftige Releases versprechen, noch umfangreichere Funktionen und Optimierungen zu bieten, was KubeVirt zu einer zunehmend attraktiven Lösung für die Integration von virtuellen Maschinen in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e macht.\u003c/p\u003e\n",
      "summary": "TL;DR Die KubeVirt Community hat die Version 1.8 veröffentlicht, die mit Kubernetes v1.35 kompatibel ist. Zu den Hauptneuerungen gehören Verbesserungen im Bereich Confidential Computing, die Einführung einer Hypervisor-Abstraktionsschicht und neue Funktionen für die Netzwerk- und Speicherverwaltung.\nHauptinhalt Die Veröffentlichung von KubeVirt v1.8 markiert einen wichtigen Schritt in der Weiterentwicklung des Projekts, das sich auf die Integration von virtuellen Maschinen in Kubernetes fokussiert. Diese Version ist die dritte, die im Rahmen des Virt Enhancement Proposal (VEP) Prozesses entstanden ist, und zeigt eine zunehmende Aktivität und Beteiligung der Community. In dieser Version wurden zahlreiche neue Funktionen und Verbesserungen implementiert, die die Nutzung und Performance von KubeVirt optimieren.\n",
      "image": "https://ayedo.de/announcing-the-release-of-kubevirt-v1-8.png",
      "date_published": "2026-03-25T08:00:00Z",
      "date_modified": "2026-03-25T08:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubevirt","kubernetes","confidential-computing","hypervisor-abstraction"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/cncf-welcomes-21-new-silver-members-as-global-demand-surges-for-observability-ai-and-secure-cloud-native-infrastructure/",
      "url": "https://ayedo.de/news/cncf-welcomes-21-new-silver-members-as-global-demand-surges-for-observability-ai-and-secure-cloud-native-infrastructure/",
      "title": "CNCF begrüßt 21 neue Silbermitglieder, da die globale Nachfrage nach Observability, KI und sicherer Cloud Native Infrastruktur steigt",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Cloud Native Computing Foundation (CNCF) hat 21 neue Silbermitglieder aufgenommen, was die wachsende Nachfrage nach \u003ca href=\"https://www.cncf.io/\"\u003ecloud-nativen\u003c/a\u003e Technologien unterstreicht. Mit 98 % der Unternehmen, die cloud-native Techniken nutzen, und 82 %, die \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e in der Produktion betreiben, wird die Bedeutung von Observability, Sicherheit und KI-fähiger Infrastruktur für moderne Unternehmensarchitekturen hervorgehoben.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie CNCF hat kürzlich die Aufnahme von 21 neuen Silbermitgliedern bekannt gegeben, was die fortschreitende Akzeptanz von cloud-nativen Technologien in verschiedenen Branchen verdeutlicht. Diese Entwicklung spiegelt den steigenden Bedarf an skalierbaren und kosteneffizienten Lösungen wider, die für die Verwaltung komplexer Infrastrukturen und die Unterstützung moderner Arbeitslasten, einschließlich Künstlicher Intelligenz (KI), entscheidend sind.\u003c/p\u003e\n\u003cp\u003eEine Umfrage der CNCF aus dem Jahr 2025 zeigt, dass 98 % der befragten Organisationen cloud-native Techniken implementiert haben, wobei 82 % \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e in Produktionsumgebungen nutzen. Angesichts dieser Zahlen wird die Notwendigkeit für gemeinsame Best Practices und innovationsgetriebene Ansätze innerhalb der Community immer deutlicher. Die Mitgliedschaft in der CNCF ermöglicht es Unternehmen, sich mit einer globalen Gemeinschaft zu vernetzen, um offene Standards zu definieren und an gemeinschaftlichen Innovationsprojekten teilzunehmen.\u003c/p\u003e\n\u003cp\u003eZu den neuen Silbermitgliedern gehören Unternehmen, die sich auf verschiedene Aspekte der cloud-nativen Infrastruktur spezialisiert haben. Beispielsweise bietet AgentField eine Open-Source-Backend-Infrastruktur für autonome KI-Agenten, die mit kryptografischen Identitäten ausgestattet sind. Aikido Security hingegen vereint Sicherheitslösungen in einem Produkt, das in die täglichen Entwicklungsabläufe integriert ist.\u003c/p\u003e\n\u003cp\u003eAxmos, ein Cloud-natives Beratungsunternehmen und Google Cloud Premier Partner, fokussiert sich auf Infrastrukturmodernisierung und FinOps. Better Stack bietet eine umfassende Plattform für Observability und Incident Management, die von über 400.000 Entwicklern genutzt wird. Ciroos unterstützt Betriebsteams bei der Bewältigung von Komplexität in Produktionsumgebungen, während EIDP eine \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-native Entwicklerplattform für den europäischen Markt bereitstellt.\u003c/p\u003e\n\u003cp\u003eWeitere neue Mitglieder sind ElastiFlow, das Netzwerk-Observability mit OpenTelemetry bietet, und Hush Security, das sich auf die Sicherheit von nicht-menschlichen Identitäten konzentriert. Hydrolix ermöglicht die Echtzeitverarbeitung großer Log-Datenmengen, während Keymate feingranulare Autorisierungsentscheidungen in bestehende Identitätslösungen integriert.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Aufnahme dieser neuen Mitglieder verdeutlicht die Diversität und den Innovationsdrang innerhalb des cloud-nativen Ökosystems. Insbesondere die Fokussierung auf Observability, Sicherheit und KI-fähige Infrastruktur zeigt, dass Unternehmen zunehmend auf moderne Technologien setzen, um ihre Betriebsabläufe zu optimieren. Die Integration von Sicherheitslösungen in Entwicklungsprozesse ist ein weiterer Schritt in Richtung einer proaktiven Sicherheitskultur, die in der heutigen Bedrohungslandschaft unverzichtbar ist.\u003c/p\u003e\n\u003cp\u003eDie Entwicklungen bei der Datenverarbeitung und -analyse, wie sie von Hydrolix und Better Stack angeboten werden, ermöglichen es Unternehmen, wertvolle Einblicke aus großen Datenmengen zu gewinnen, ohne Kompromisse bei der Leistung einzugehen. Dies ist besonders relevant für Unternehmen, die auf Echtzeit-Analysen angewiesen sind, um fundierte Entscheidungen zu treffen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie kontinuierliche Erweiterung der CNCF-Mitgliedschaft zeigt die zunehmende Relevanz cloud-nativer Technologien im Unternehmensumfeld. Die neuen Mitglieder bringen innovative Lösungen mit, die Unternehmen dabei unterstützen, sich den Herausforderungen der digitalen Transformation zu stellen und ihre Infrastruktur nachhaltig zu verbessern.\u003c/p\u003e\n",
      "summary": "TL;DR Die Cloud Native Computing Foundation (CNCF) hat 21 neue Silbermitglieder aufgenommen, was die wachsende Nachfrage nach cloud-nativen Technologien unterstreicht. Mit 98 % der Unternehmen, die cloud-native Techniken nutzen, und 82 %, die Kubernetes in der Produktion betreiben, wird die Bedeutung von Observability, Sicherheit und KI-fähiger Infrastruktur für moderne Unternehmensarchitekturen hervorgehoben.\nHauptinhalt Die CNCF hat kürzlich die Aufnahme von 21 neuen Silbermitgliedern bekannt gegeben, was die fortschreitende Akzeptanz von cloud-nativen Technologien in verschiedenen Branchen verdeutlicht. Diese Entwicklung spiegelt den steigenden Bedarf an skalierbaren und kosteneffizienten Lösungen wider, die für die Verwaltung komplexer Infrastrukturen und die Unterstützung moderner Arbeitslasten, einschließlich Künstlicher Intelligenz (KI), entscheidend sind.\n",
      "image": "https://ayedo.de/cncf-welcomes-21-new-silver-members-as-global-demand-surges-for-observability-ai-and-secure-cloud-native-infrastructure.png",
      "date_published": "2026-03-25T08:00:00Z",
      "date_modified": "2026-03-25T08:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","observability","kubernetes","artificial-intelligence","cloud-infrastructure"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/istio-brings-future-ready-service-mesh-to-the-ai-era-with-new-ambient-multicluster-gateway-api-inference-extension-and-more/",
      "url": "https://ayedo.de/news/istio-brings-future-ready-service-mesh-to-the-ai-era-with-new-ambient-multicluster-gateway-api-inference-extension-and-more/",
      "title": "Istio bringt zukunftsfähiges Service Mesh in die KI-Ära mit neuem Ambient Multicluster, Gateway API Inference Extension und mehr",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eIstio hat neue Beta-Funktionen eingeführt, darunter Ambient Multicluster und Gateway API Inference Extension, um die Nutzung von Service Mesh in AI-gestützten Infrastrukturen zu vereinfachen. Diese Updates zielen darauf ab, die Komplexität bei der Verwaltung mehrerer Cluster zu reduzieren und optimierte Modellroutings für AI-Inferenz auf \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e bereitzustellen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie neuesten Entwicklungen von Istio, die auf der KubeCon + CloudNativeCon Europe 2026 vorgestellt wurden, konzentrieren sich auf die Unterstützung von modernen, AI-orientierten Arbeitslasten in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Umgebungen. Die Beta-Version des Ambient Multicluster ermöglicht es, den Datenverkehr über mehrere Cluster hinweg ohne den Einsatz von Sidecars zu leiten. Dies vereinfacht die Bereitstellung und Verwaltung von \u003ca href=\"/kubernetes/\"\u003eService Mesh\u003c/a\u003e erheblich und erleichtert Teams, die Anwendungen über verschiedene Regionen oder Clouds skalieren und resilient betreiben möchten.\u003c/p\u003e\n\u003cp\u003eZusätzlich zur Ambient Multicluster-Funktionalität wurde die Gateway API Inference Extension als Beta veröffentlicht. Diese Erweiterung integriert maschinelles Lernen direkt in die Verkehrsströme des Mesh und bietet eine konsistente Entwicklererfahrung, die den Betrieb für Plattformteams vereinfacht, die mit den [Kubernetes]-Standards vertraut sind.\u003c/p\u003e\n\u003cp\u003eEin weiterer wichtiger Aspekt ist die experimentelle Unterstützung für agentgateway, das Teil des Istio-Datenplans ist. Diese Funktion zielt darauf ab, flexiblere und leichtere Verkehrsmanagementlösungen zu erkunden, um mit den dynamischen Anforderungen von AI-gestützten Anwendungen Schritt zu halten. Ursprünglich von Solo.io entwickelt und jetzt ein Projekt der Linux Foundation, soll agentgateway dabei helfen, dynamische Verkehrsströme, die durch AI-Entwicklungen entstehen, effizient zu verwalten.\u003c/p\u003e\n\u003cp\u003eDie Cloud Native Computing Foundation (CNCF) hat in ihrer jährlichen Umfrage festgestellt, dass 66 % der Organisationen AI-Arbeitslasten auf \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e ausführen, jedoch nur 7 % tägliche Bereitstellungen für diese Arbeitslasten erreichen. Dies zeigt, dass Organisationen, die fortschrittliche Traffic-Management- und Sicherheitslösungen implementieren, deutlich besser abschneiden.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie neuen Funktionen von Istio sind darauf ausgelegt, die operationalen Herausforderungen zu minimieren, die oft mit der Bereitstellung von AI-Arbeitslasten verbunden sind. Mit der Ambient Multicluster-Funktion können Teams die Komplexität der Multicluster-Bereitstellung erheblich reduzieren, was zu schnelleren Bereitstellungen und einer besseren Skalierbarkeit führt. Die Gateway API Inference Extension verbessert die Integration von AI-Workloads in bestehende \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Umgebungen, was die Effizienz und Benutzerfreundlichkeit erhöht. Die experimentelle Unterstützung für agentgateway zeigt das Engagement der Istio-Community, innovative Ansätze zur Verkehrsverwaltung zu fördern, was für die Zukunft von AI-Anwendungen von Bedeutung ist.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie aktuellen Updates von Istio positionieren die Plattform als Schlüsseltechnologie für die Unterstützung von AI-gestützten Arbeitslasten in cloud-nativen Umgebungen. Die Entwicklungen deuten auf einen klaren Trend hin, dass Organisationen einfachere und effektivere Lösungen für die Verwaltung komplexer AI-Workloads benötigen.\u003c/p\u003e\n",
      "summary": "TL;DR Istio hat neue Beta-Funktionen eingeführt, darunter Ambient Multicluster und Gateway API Inference Extension, um die Nutzung von Service Mesh in AI-gestützten Infrastrukturen zu vereinfachen. Diese Updates zielen darauf ab, die Komplexität bei der Verwaltung mehrerer Cluster zu reduzieren und optimierte Modellroutings für AI-Inferenz auf Kubernetes bereitzustellen.\nHauptinhalt Die neuesten Entwicklungen von Istio, die auf der KubeCon + CloudNativeCon Europe 2026 vorgestellt wurden, konzentrieren sich auf die Unterstützung von modernen, AI-orientierten Arbeitslasten in Kubernetes-Umgebungen. Die Beta-Version des Ambient Multicluster ermöglicht es, den Datenverkehr über mehrere Cluster hinweg ohne den Einsatz von Sidecars zu leiten. Dies vereinfacht die Bereitstellung und Verwaltung von Service Mesh erheblich und erleichtert Teams, die Anwendungen über verschiedene Regionen oder Clouds skalieren und resilient betreiben möchten.\n",
      "image": "https://ayedo.de/istio-brings-future-ready-service-mesh-to-the-ai-era-with-new-ambient-multicluster-gateway-api-inference-extension-and-more.png",
      "date_published": "2026-03-25T08:00:00Z",
      "date_modified": "2026-03-25T08:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","istio","service-mesh","ambient-multicluster","gateway-api"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/lima-v2-1-macos-guests-and-enhanced-ai-agent-safety/",
      "url": "https://ayedo.de/news/lima-v2-1-macos-guests-and-enhanced-ai-agent-safety/",
      "title": "Lima v2.1: macOS-Gäste und verbesserte Sicherheit des AI-Agenten",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eLima v2.1 bietet experimentelle Unterstützung für macOS- und FreeBSD-Gäste sowie verbesserte Sicherheitsfunktionen für den Umgang mit KI-Agenten. Die neue Version optimiert die Leistung und Effizienz, reduziert die Größe des Guestagent-Binaries und führt neue CLI-Befehle ein.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eLima, ein Kommandozeilenwerkzeug zur Bereitstellung lokaler virtueller Maschinen, hat in seiner Version 2.1 bedeutende Neuerungen eingeführt. Ursprünglich entwickelt, um \u003ca href=\"/kubernetes/\"\u003eContainern\u003c/a\u003e auf Laptops zu helfen, hat sich Lima seit seinem Eintritt in die Cloud Native Computing Foundation (CNCF) im Jahr 2022 weiterentwickelt. Mit der Version 2.1 wird die Unterstützung für macOS- und FreeBSD-Gäste experimentell angeboten, wodurch die Anwendungsmöglichkeiten für Entwickler erweitert werden.\u003c/p\u003e\n\u003cp\u003eDie Unterstützung für macOS-Gäste ermöglicht es, isolierte macOS-Umgebungen für Tests und plattformspezifische Workloads zu erstellen. Um eine macOS-Instanz zu starten, genügt der Befehl \u003ccode\u003elimactl start template:macos\u003c/code\u003e. Wichtig ist, dass diese Funktion nur auf Apple Silicon Macs funktioniert. Für FreeBSD-Gäste wird der Befehl \u003ccode\u003elimactl start template:freebsd\u003c/code\u003e verwendet.\u003c/p\u003e\n\u003cp\u003eEin zentrales Sicherheitsfeature in Lima v2.1 ist der neue Befehl \u003ccode\u003elimactl shell --sync\u003c/code\u003e. Dieser Befehl ermöglicht es, KI-Agenten sicherer auf Dateien zuzugreifen, indem er eine synchronisierte Methode anstelle einer direkten, unbeschränkten Live-Montage verwendet. Dies minimiert das Risiko, dass KI-Agenten durch fehlerhafte oder destruktive Änderungen Host-Dateien beeinträchtigen.\u003c/p\u003e\n\u003cp\u003eZusätzlich wurden die Performance und Effizienz von Lima verbessert. Der Footprint des Guestagent-Binaries wurde um mehr als die Hälfte reduziert, und die Konsolidierung von \u003ccode\u003ebasedisk\u003c/code\u003e und \u003ccode\u003ediffdisk\u003c/code\u003e in eine einzige Disk-Datei verbessert die interne Effizienz. Eine neue Funktion sorgt zudem für eine genauere Zeit-Synchronisation zwischen Host und Gastbetriebssystem.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Einführung der experimentellen Unterstützung für macOS und FreeBSD erweitert die Anwendungsmöglichkeiten von Lima erheblich. Entwickler können nun plattformübergreifende Tests und Entwicklungen effizienter durchführen. Die Sicherheitsverbesserungen, insbesondere der \u003ccode\u003e--sync\u003c/code\u003e Befehl, bieten eine wichtige Schutzmaßnahme für den Umgang mit KI-Agenten, die in sensiblen Umgebungen eingesetzt werden. Die Reduktion der Größe des Guestagent-Binaries und die Disk-Konsolidierung tragen zur Verbesserung der Systemressourcennutzung bei, was für Unternehmen, die Lima in Produktionsumgebungen einsetzen, von Bedeutung ist.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eLima v2.1 stellt einen bedeutenden Schritt in der Weiterentwicklung des Tools dar, insbesondere im Hinblick auf Sicherheit und plattformübergreifende Unterstützung. Die kontinuierliche Verbesserung und die Einführung neuer Funktionen positionieren Lima als wertvolles Werkzeug für Entwickler und IT-Entscheider im Bereich \u003ca href=\"/kubernetes/\"\u003eCloud-Native\u003c/a\u003e und \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e.\u003c/p\u003e\n",
      "summary": "TL;DR Lima v2.1 bietet experimentelle Unterstützung für macOS- und FreeBSD-Gäste sowie verbesserte Sicherheitsfunktionen für den Umgang mit KI-Agenten. Die neue Version optimiert die Leistung und Effizienz, reduziert die Größe des Guestagent-Binaries und führt neue CLI-Befehle ein.\nHauptinhalt Lima, ein Kommandozeilenwerkzeug zur Bereitstellung lokaler virtueller Maschinen, hat in seiner Version 2.1 bedeutende Neuerungen eingeführt. Ursprünglich entwickelt, um Containern auf Laptops zu helfen, hat sich Lima seit seinem Eintritt in die Cloud Native Computing Foundation (CNCF) im Jahr 2022 weiterentwickelt. Mit der Version 2.1 wird die Unterstützung für macOS- und FreeBSD-Gäste experimentell angeboten, wodurch die Anwendungsmöglichkeiten für Entwickler erweitert werden.\n",
      "image": "https://ayedo.de/lima-v2-1-macos-guests-and-enhanced-ai-agent-safety.png",
      "date_published": "2026-03-25T07:00:00Z",
      "date_modified": "2026-03-25T07:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","lima","macos","freebsd","ai-agent"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/trivy-supply-chain-compromise-what-docker-hub-users-should-know/",
      "url": "https://ayedo.de/news/trivy-supply-chain-compromise-what-docker-hub-users-should-know/",
      "title": "Trivy-Lieferkette kompromittiert: Was Docker Hub-Nutzer wissen sollten",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Sicherheitsvorfälle rund um die Trivy-Bilder auf \u003ca href=\"/kubernetes/\"\u003eDocker Hub\u003c/a\u003e haben dazu geführt, dass CI/CD-Geheimnisse, Cloud-Anmeldeinformationen und SSH-Schlüssel von Nutzern kompromittiert wurden. Betroffene Nutzer sollten unverzüglich betroffene Bilder entfernen und ihre Anmeldeinformationen rotieren.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eEin Sicherheitsvorfall, der Aqua Securitys Trivy-Scanner betrifft, wurde zwischen dem 19. und 23. März 2026 festgestellt. In diesem Zeitraum wurden die Trivy-Images mit den Tags 0.69.4, 0.69.5, 0.69.6 und \u0026ldquo;latest\u0026rdquo; auf \u003ca href=\"/kubernetes/\"\u003eDocker Hub\u003c/a\u003e kompromittiert. Die Angreifer nutzten eine Schwachstelle in Aqua Securitys CI/CD-Pipeline, um Malware in die Trivy-Images einzuschleusen. Diese Malware war in der Lage, CI/CD-Geheimnisse, Cloud-Anmeldeinformationen, SSH-Schlüssel und \u003ca href=\"/kubernetes/\"\u003eDocker-Konfigurationen\u003c/a\u003e zu exfiltrieren.\u003c/p\u003e\n\u003cp\u003eDer Vorfall begann am 19. März 2026 um 18:24 UTC, als die Angreifer mit gestohlenen Anmeldeinformationen Bilder in das Repository von Aqua Security auf Docker Hub hochluden. Diese Bilder wurden durch die Authentifizierung der Aqua Security-Anmeldeinformationen als legitim angesehen. Am 20. März 2026 um 03:26 UTC wurde der \u0026ldquo;latest\u0026rdquo;-Tag auf kompromittierte Inhalte umgeleitet, nachdem Aqua Security bereits mit der Bereinigung begonnen hatte. Am 22. März wurden weitere kompromittierte Versionen hochgeladen, die ebenfalls gefährdet waren.\u003c/p\u003e\n\u003cp\u003eDocker wurde am 23. März 2026 um 08:00 UTC auf die Kompromittierung aufmerksam und begann sofort mit der Untersuchung. Die betroffenen Bilder wurden in der Folge gelöscht, um weitere Downloads zu verhindern. Um 15:43 UTC am selben Tag wurden die Inhalte der kompromittierten Bilder zur internen Untersuchung quarantänisiert. Aqua Security war bereits informiert und arbeitete an der Entfernung der betroffenen Tags und Bilder.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eNutzer, die die betroffenen Trivy-Images heruntergeladen haben, sollten diese umgehend entfernen. Es wird empfohlen, alle Anmeldeinformationen, die auf Systemen verwendet wurden, die die kompromittierten Images ausgeführt haben, zu rotieren. Besonders kritisch ist die Situation, wenn der Docker-Socket in der \u003ca href=\"/kubernetes/\"\u003eContainer-Konfiguration\u003c/a\u003e gemountet wurde, da dies den Containern vollständigen Zugriff auf den Docker-Daemon des Hosts gewährt. In diesem Fall sollte der gesamte Host als kompromittiert betrachtet werden.\u003c/p\u003e\n\u003cp\u003eDie letzte bekannte sichere Version ist 0.69.3. Nutzer sollten sicherstellen, dass sie diese Version oder eine verifiziert neue Version verwenden, um ihre Systeme zu schützen. Es ist auch wichtig, mögliche Kompromittierungen über andere Verteilungswege, wie GitHub, zu überprüfen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDer Vorfall unterstreicht die Notwendigkeit, Sicherheitsmaßnahmen in CI/CD-Pipelines zu verstärken und die Integrität von Container-Images regelmäßig zu überprüfen. Nutzer sollten wachsam bleiben und ihre Sicherheitspraktiken anpassen, um zukünftige Angriffe zu verhindern.\u003c/p\u003e\n",
      "summary": "TL;DR Die Sicherheitsvorfälle rund um die Trivy-Bilder auf Docker Hub haben dazu geführt, dass CI/CD-Geheimnisse, Cloud-Anmeldeinformationen und SSH-Schlüssel von Nutzern kompromittiert wurden. Betroffene Nutzer sollten unverzüglich betroffene Bilder entfernen und ihre Anmeldeinformationen rotieren.\nHauptinhalt Ein Sicherheitsvorfall, der Aqua Securitys Trivy-Scanner betrifft, wurde zwischen dem 19. und 23. März 2026 festgestellt. In diesem Zeitraum wurden die Trivy-Images mit den Tags 0.69.4, 0.69.5, 0.69.6 und \u0026ldquo;latest\u0026rdquo; auf Docker Hub kompromittiert. Die Angreifer nutzten eine Schwachstelle in Aqua Securitys CI/CD-Pipeline, um Malware in die Trivy-Images einzuschleusen. Diese Malware war in der Lage, CI/CD-Geheimnisse, Cloud-Anmeldeinformationen, SSH-Schlüssel und Docker-Konfigurationen zu exfiltrieren.\n",
      "image": "https://ayedo.de/trivy-supply-chain-compromise-what-docker-hub-users-should-know.png",
      "date_published": "2026-03-23T23:25:14Z",
      "date_modified": "2026-03-23T23:25:14Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","trivy","docker-hub","ci-cd-sicherheit","malware","cloud-anmeldeinformationen"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/announcing-ingress2gateway-1-0-your-path-to-gateway-api/",
      "url": "https://ayedo.de/news/announcing-ingress2gateway-1-0-your-path-to-gateway-api/",
      "title": "Ankündigung von Ingress2Gateway 1.0: Ihr Weg zur Gateway API",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Veröffentlichung von Ingress2Gateway 1.0 bietet eine umfassende Lösung für die Migration von Ingress-NGINX zu \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e. Mit Unterstützung für über 30 Annotations und einem stabilen Migrationsassistenten wird der Übergang zu einer modularen und erweiterbaren API erleichtert.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie [Kubernetes]-Netzwerklandschaft steht vor einem Wandel, da die Abkündigung von Ingress-NGINX für März 2026 ansteht. Organisationen müssen sich nun der Herausforderung stellen, ihre bestehenden Ingress-Implementierungen sicher auf die \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e zu migrieren. Die \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e bietet eine modularere und erweiterbare Schnittstelle mit robuster Unterstützung für Kubernetes-native Rollen- und Berechtigungsverwaltung (RBAC), während die Ingress API oft durch spezielle Annotations und Konfigurationsdateien erweitert wird.\u003c/p\u003e\n\u003cp\u003eIngress2Gateway ist ein neues Tool, das Teams dabei unterstützt, diesen Übergang zu bewältigen. Es übersetzt Ingress-Ressourcen und spezifische Annotations in die \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e und warnt vor nicht übersetzbaren Konfigurationen, während es gleichzeitig Vorschläge zur Behebung bietet. Die Version 1.0 von Ingress2Gateway stellt einen stabilen und getesteten Migrationsassistenten dar, der für die Modernisierung von Netzwerkarchitekturen konzipiert ist.\u003c/p\u003e\n\u003cp\u003eEin zentrales Merkmal der 1.0-Version ist die umfassendere Unterstützung von Ingress-NGINX-Annotations. Während frühere Versionen nur drei Annotations unterstützten, bietet die aktuelle Version Unterstützung für über 30 gängige Annotations, darunter CORS, Backend-TLS, reguläre Ausdrücke und Pfadumschreibungen. Dies wird durch umfassende Integrationstests untermauert, die sicherstellen, dass die Verhalten der Ingress-NGINX-Konfiguration und der generierten \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e übereinstimmen.\u003c/p\u003e\n\u003cp\u003eDie Tests umfassen das Einrichten eines Ingress-NGINX-Controllers sowie mehrerer [Gateway API]-Controller, um die Funktionalität in Live-Clustern zu vergleichen. Diese Tests sind entscheidend, um sicherzustellen, dass die Migration reibungslos verläuft und unerwartete Probleme in der Produktionsumgebung vermieden werden.\u003c/p\u003e\n\u003cp\u003eEin weiteres wichtiges Feature von Ingress2Gateway 1.0 ist das verbesserte Benachrichtigungs- und Fehlerhandhabungssystem. Migrationen sind komplex und erfordern eine präzise Handhabung von Details, die nicht ohne weiteres übersetzbar sind. Die 1.0-Version bringt Klarheit in die Benachrichtigungen, sodass Nutzer genau wissen, welche Konfigurationen fehlen und wie sie diese anpassen können.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eIngress2Gateway dient nicht als einmaliger Ersatz, sondern als kontinuierlicher Migrationsassistent. Es zielt darauf ab, unterstützte Ingress-Konfigurationen zu migrieren, nicht unterstützte Konfigurationen zu identifizieren und Alternativen vorzuschlagen. Die Nutzer können Ingress2Gateway in einer Go-Umgebung installieren oder über Homebrew beziehen. Das Tool ermöglicht es, Ingress-Manifeste direkt zu übergeben oder aus dem Cluster zu lesen, und bietet flexible Optionen zur Ausgabe.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eIngress2Gateway 1.0 stellt einen bedeutenden Schritt in der Evolution der [Kubernetes]-Netzwerkinfrastruktur dar, indem es eine strukturierte und getestete Methode zur Migration auf die \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e bietet. Die Unterstützung für eine Vielzahl von Annotations und die umfassenden Testverfahren tragen dazu bei, dass Organisationen ihre Netzwerkkonfigurationen effizient und sicher modernisieren können.\u003c/p\u003e\n",
      "summary": "TL;DR Die Veröffentlichung von Ingress2Gateway 1.0 bietet eine umfassende Lösung für die Migration von Ingress-NGINX zu Gateway API in Kubernetes. Mit Unterstützung für über 30 Annotations und einem stabilen Migrationsassistenten wird der Übergang zu einer modularen und erweiterbaren API erleichtert.\nHauptinhalt Die [Kubernetes]-Netzwerklandschaft steht vor einem Wandel, da die Abkündigung von Ingress-NGINX für März 2026 ansteht. Organisationen müssen sich nun der Herausforderung stellen, ihre bestehenden Ingress-Implementierungen sicher auf die Gateway API zu migrieren. Die Gateway API bietet eine modularere und erweiterbare Schnittstelle mit robuster Unterstützung für Kubernetes-native Rollen- und Berechtigungsverwaltung (RBAC), während die Ingress API oft durch spezielle Annotations und Konfigurationsdateien erweitert wird.\n",
      "image": "https://ayedo.de/announcing-ingress2gateway-1-0-your-path-to-gateway-api.png",
      "date_published": "2026-03-20T19:00:00Z",
      "date_modified": "2026-03-20T19:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","ingress2gateway","gateway-api","migration","network-architecture","annotations"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/running-agents-on-kubernetes-with-agent-sandbox/",
      "url": "https://ayedo.de/news/running-agents-on-kubernetes-with-agent-sandbox/",
      "title": "Agenten auf Kubernetes mit Agent Sandbox ausführen",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDas Agent Sandbox-Projekt für \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e zielt darauf ab, die Herausforderungen bei der Ausführung von stateful, singleton AI-Agenten zu adressieren. Es bietet eine standardisierte API für die Verwaltung dieser Agenten, einschließlich starker Isolation, Lebenszyklusmanagement und stabiler Identität, und ermöglicht eine effiziente Skalierung durch vorab bereitgestellte Umgebungen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Architektur der künstlichen Intelligenz (KI) verändert sich grundlegend, von transienten, zustandslosen Funktionsaufrufen hin zu langlaufenden, autonomen Agenten. Diese Agenten benötigen nicht nur eine konstante Ausführung, sondern auch die Fähigkeit, Kontext zu speichern, externe Tools zu nutzen und über längere Zeiträume miteinander zu kommunizieren. \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e hat sich als bevorzugte Plattform für das Hosting dieser neuen KI-Workloads etabliert, jedoch erfordert die Abbildung dieser Agenten auf traditionelle Kubernetes-Primitiven eine neue Abstraktion.\u003c/p\u003e\n\u003cp\u003eDas Agent Sandbox-Projekt, das sich derzeit unter der SIG Apps in der Entwicklung befindet, bietet eine Lösung für diese Herausforderungen. Es führt eine deklarative API ein, die speziell für die Verwaltung von singleton, stateful Workloads wie AI-Agenten entwickelt wurde.\u003c/p\u003e\n\u003cp\u003eDie zentrale Komponente des Projekts ist die Sandbox Custom Resource Definition (CRD), die eine leichte, containerisierte Umgebung bereitstellt. Diese Umgebung bietet mehrere wichtige Funktionen:\u003c/p\u003e\n\u003col\u003e\n\u003cli\u003e\n\u003cp\u003e\u003cstrong\u003eStarke Isolation für untrusted Code\u003c/strong\u003e: Sicherheitsaspekte sind entscheidend, wenn AI-Agenten autonom Code generieren und ausführen. Die Sandbox CRD unterstützt verschiedene Laufzeitumgebungen wie gVisor oder Kata Containers, um die notwendige Isolation zu gewährleisten.\u003c/p\u003e\n\u003c/li\u003e\n\u003cli\u003e\n\u003cp\u003e\u003cstrong\u003eLebenszyklusmanagement\u003c/strong\u003e: Im Gegensatz zu traditionellen Webservern, die für stetigen, zustandslosen Verkehr optimiert sind, fungiert ein AI-Agent als stateful Arbeitsumgebung. Die Agent Sandbox ermöglicht es, inaktive Umgebungen auf null zu skalieren, um Ressourcen zu sparen, während sie gleichzeitig sicherstellt, dass die Agenten genau dort fortfahren können, wo sie aufgehört haben.\u003c/p\u003e\n\u003c/li\u003e\n\u003cli\u003e\n\u003cp\u003e\u003cstrong\u003eStabile Identität\u003c/strong\u003e: Für koordiniertes Arbeiten in Mehr-Agenten-Systemen ist eine stabile Netzwerkidentität erforderlich. Jeder Sandbox wird ein stabiler Hostname und eine Netzwerkidentität zugewiesen, was die Kommunikation zwischen den Agenten erleichtert.\u003c/p\u003e\n\u003c/li\u003e\n\u003c/ol\u003e\n\u003cp\u003eEin weiteres wichtiges Merkmal ist die \u003cstrong\u003eErweiterungs-API\u003c/strong\u003e, die eine schnelle Iteration und Entwicklung ermöglicht. Die Herausforderung eines \u0026ldquo;Cold Starts\u0026rdquo;, der bei der Aktivierung eines Agenten nach einer Inaktivitätsphase auftritt, wird durch die SandboxWarmPool-Funktion gelöst. Diese Funktion hält einen Pool vorab bereitgestellter Sandbox-Pods bereit, wodurch die Wartezeit für die Bereitstellung der Umgebung entfällt.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Implementierung des Agent Sandbox-Projekts erfordert ein tiefes Verständnis der \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Primitiven und deren Anpassung an die speziellen Anforderungen von AI-Agenten. Die starke Isolation und das Lebenszyklusmanagement sind entscheidend, um die Sicherheit und Effizienz bei der Ausführung von untrusted Code zu gewährleisten. Zudem ermöglicht die Erweiterungs-API eine flexible und schnelle Anpassung an sich ändernde Anforderungen im schnelllebigen KI-Bereich.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDas Agent Sandbox-Projekt stellt einen bedeutenden Schritt in der Evolution von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e dar, um den spezifischen Anforderungen von KI-Agenten gerecht zu werden. Die Entwicklung wird voraussichtlich weiterhin an Dynamik gewinnen, da die Anforderungen an AI-Workloads weiter steigen.\u003c/p\u003e\n",
      "summary": "TL;DR Das Agent Sandbox-Projekt für Kubernetes zielt darauf ab, die Herausforderungen bei der Ausführung von stateful, singleton AI-Agenten zu adressieren. Es bietet eine standardisierte API für die Verwaltung dieser Agenten, einschließlich starker Isolation, Lebenszyklusmanagement und stabiler Identität, und ermöglicht eine effiziente Skalierung durch vorab bereitgestellte Umgebungen.\nHauptinhalt Die Architektur der künstlichen Intelligenz (KI) verändert sich grundlegend, von transienten, zustandslosen Funktionsaufrufen hin zu langlaufenden, autonomen Agenten. Diese Agenten benötigen nicht nur eine konstante Ausführung, sondern auch die Fähigkeit, Kontext zu speichern, externe Tools zu nutzen und über längere Zeiträume miteinander zu kommunizieren. Kubernetes hat sich als bevorzugte Plattform für das Hosting dieser neuen KI-Workloads etabliert, jedoch erfordert die Abbildung dieser Agenten auf traditionelle Kubernetes-Primitiven eine neue Abstraktion.\n",
      "image": "https://ayedo.de/running-agents-on-kubernetes-with-agent-sandbox.png",
      "date_published": "2026-03-20T18:00:00Z",
      "date_modified": "2026-03-20T18:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","ai-agenten","sandbox","stateful-workloads","containerisierung","lebenszyklusmanagement"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/securing-production-debugging-in-kubernetes/",
      "url": "https://ayedo.de/news/securing-production-debugging-in-kubernetes/",
      "title": "Sichern der Produktions-Debugging in Kubernetes",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Sicherung von Produktions-Debugging in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e erfordert eine Kombination aus minimalen Berechtigungen, kurzlebigen, identitätsgebundenen Anmeldedaten und einem SSH-ähnlichen Handshake-Modell. Der Einsatz eines just-in-time Secure Shell Gateways kann temporären Zugriff sicherstellen und gleichzeitig die Überwachung und Protokollierung verbessern.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eIn \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Umgebungen wird häufig auf breite Zugriffsrechte zurückgegriffen, um das Debugging in Produktionsumgebungen zu erleichtern. Dies geschieht oft durch die Verwendung von Cluster-Admin-Rechten oder langlebigen SSH-Schlüsseln. Diese Ansätze bringen jedoch erhebliche Herausforderungen mit sich, insbesondere in Bezug auf die Auditierung und die Gefahr, dass temporäre Ausnahmen zur Norm werden.\u003c/p\u003e\n\u003cp\u003eUm diese Probleme zu adressieren, wird empfohlen, das Prinzip der minimalen Berechtigungen durch den Einsatz von Role-Based Access Control (RBAC) zu implementieren. RBAC ermöglicht eine feingranulare Steuerung darüber, wer was innerhalb eines \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Clusters tun kann. Die Implementierung sollte darauf abzielen, Berechtigungen nur für Gruppen oder ServiceAccounts zu definieren, anstatt individuelle Benutzerrechte zu vergeben. Dies vereinfacht die Verwaltung und erhöht die Sicherheit.\u003c/p\u003e\n\u003cp\u003eEin weiterer wichtiger Aspekt ist die Verwendung von kurzlebigen, identitätsgebundenen Anmeldedaten. Diese Anmeldedaten sind so konzipiert, dass sie eine Sitzung eindeutig einer realen Person zuordnen und schnell ablaufen. Sie können durch Hardware-gestützte Schlüssel wie YubiKeys gesichert werden, um Fälschungen zu verhindern. [Kubernetes]-native Authentifizierungsmethoden, wie Client-Zertifikate oder OIDC-basierte Prozesse, können zur Umsetzung dieser Anmeldedaten verwendet werden.\u003c/p\u003e\n\u003cp\u003eZusätzlich wird empfohlen, ein SSH-ähnliches Handshake-Modell für das Debugging in \u003ca href=\"/kubernetes/\"\u003eCloud-nativen\u003c/a\u003e Umgebungen zu implementieren. Dies kann durch ein just-in-time Secure Shell Gateway geschehen, das als temporärer Zugangspunkt fungiert. Benutzer authentifizieren sich mit kurzlebigen Anmeldedaten, und das Gateway steuert den Zugriff über die [Kubernetes]-API und RBAC, wodurch die Aktionen, die Benutzer durchführen können, genau definiert werden.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eEin Access Broker kann in Kombination mit \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e RBAC eingesetzt werden, um zusätzliche Kontrollen zu implementieren, die über die Standardberechtigungen hinausgehen. Zum Beispiel kann der Broker entscheiden, ob eine Anfrage automatisch genehmigt wird oder eine manuelle Genehmigung erfordert. Außerdem kann er festlegen, welche Befehle in einer Sitzung zulässig sind und die Gruppenmitgliedschaft verwalten. Die Richtlinien für den Zugriff können in JSON- oder XML-Dateien festgelegt werden, die durch Code-Reviews aktualisiert werden, um sicherzustellen, dass Änderungen ordnungsgemäß geprüft werden.\u003c/p\u003e\n\u003cp\u003eEin Beispiel für eine Namespaced-Rolle für das Debugging könnte die Berechtigungen zum Entdecken von Pods, Lesen von Logs und Ausführen interaktiver Debugging-Aktionen umfassen. Diese Rolle sollte an Gruppen gebunden werden, um die Verwaltung über einen Identitätsanbieter zu erleichtern.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Sicherstellung eines sicheren Produktions-Debugging in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e erfordert eine durchdachte Architektur, die auf minimalen Berechtigungen und temporären Anmeldedaten basiert. Die Implementierung dieser Best Practices kann die Sicherheit und Nachvollziehbarkeit in [Kubernetes]-Umgebungen erheblich verbessern.\u003c/p\u003e\n",
      "summary": "TL;DR Die Sicherung von Produktions-Debugging in Kubernetes erfordert eine Kombination aus minimalen Berechtigungen, kurzlebigen, identitätsgebundenen Anmeldedaten und einem SSH-ähnlichen Handshake-Modell. Der Einsatz eines just-in-time Secure Shell Gateways kann temporären Zugriff sicherstellen und gleichzeitig die Überwachung und Protokollierung verbessern.\nHauptinhalt In Kubernetes-Umgebungen wird häufig auf breite Zugriffsrechte zurückgegriffen, um das Debugging in Produktionsumgebungen zu erleichtern. Dies geschieht oft durch die Verwendung von Cluster-Admin-Rechten oder langlebigen SSH-Schlüsseln. Diese Ansätze bringen jedoch erhebliche Herausforderungen mit sich, insbesondere in Bezug auf die Auditierung und die Gefahr, dass temporäre Ausnahmen zur Norm werden.\n",
      "image": "https://ayedo.de/securing-production-debugging-in-kubernetes.png",
      "date_published": "2026-03-18T18:00:00Z",
      "date_modified": "2026-03-18T18:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","debugging","role-based-access-control","minimal-permissions","security","ssh-handshake"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/from-the-captains-chair-naga-santhosh-reddy-vootukuri/",
      "url": "https://ayedo.de/news/from-the-captains-chair-naga-santhosh-reddy-vootukuri/",
      "title": "Vom Kapitänsstuhl: Naga Santhosh Reddy Vootukuri",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eNaga Santhosh Reddy Vootukuri, auch bekannt als Sunny, ist Principal Software Engineering Manager bei Microsoft Azure SQL und \u003ca href=\"https://www.docker.com/\"\u003eDocker\u003c/a\u003e Captain. Mit über 17 Jahren Erfahrung in der Entwicklung cloudbasierter Systeme hat er sich als Experte in den Bereichen \u003ca href=\"https://cloud.google.com/\"\u003eCloud Computing\u003c/a\u003e , Microservices und Docker etabliert. Seine Leidenschaft für Wissensaustausch und Community-Building zeigt sich in seinen Beiträgen zu Open-Source-Projekten sowie in seinen Veröffentlichungen und Vorträgen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eNaga Santhosh Reddy Vootukuri hat seine Karriere im Bereich der Softwareentwicklung bei Microsoft begonnen und ist mittlerweile ein angesehener Docker Captain. Seine Reise mit Docker begann 2016 in Shanghai, wo er durch einen Vortrag über Docker inspiriert wurde. Der Vortrag verdeutlichte die Vorteile von Docker für Entwickler, insbesondere die Möglichkeit, Probleme wie \u0026ldquo;Es funktioniert auf meinem Rechner\u0026rdquo; zu vermeiden. Diese Erkenntnis führte dazu, dass er sich intensiv mit Docker und \u003ca href=\"https://www.docker.com/\"\u003eDocker\u003c/a\u003e Desktop beschäftigte, was seine berufliche Entwicklung maßgeblich beeinflusste.\u003c/p\u003e\n\u003cp\u003eSunny ist nicht nur ein aktiver Nutzer von Docker, sondern engagiert sich auch leidenschaftlich in der Community. Er hat mehrere technische Bücher veröffentlicht, darunter Werke über Azure \u003ca href=\"https://www.docker.com/\"\u003eContainer\u003c/a\u003e Apps und GitHub Copilot. Darüber hinaus ist er ein regelmäßiger Sprecher auf Konferenzen, wo er sein Wissen über Cloud-Computing, Microservices und Docker teilt. Seine Rolle als Docker Captain ermöglicht ihm den Austausch mit Produktteams und das Testen neuer Funktionen, wodurch er seine Expertise weiter vertiefen kann.\u003c/p\u003e\n\u003cp\u003eIm Jahr 2026 plant Sunny, weitere technische Bücher zu schreiben und seine Erfahrungen auf großen Konferenzen zu teilen. Er hat bereits zwei Buchprojekte in der Pipeline, die sich mit der Integration von KI in Docker und der Entwicklung von Unternehmensanwendungen mit Copilot Studio beschäftigen. Zusätzlich engagiert er sich als technischer Ausschussvorsitzender bei verschiedenen IEEE-Konferenzen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Rolle von Docker Captains wie Sunny ist für die Weiterentwicklung der Docker-Community von entscheidender Bedeutung. Sie fungieren als Brücke zwischen der Entwicklergemeinschaft und den Produktteams und tragen dazu bei, Feedback zu neuen Funktionen zu sammeln und Best Practices zu verbreiten. Die aktive Teilnahme an Open-Source-Projekten wie Dapr und Microcks zeigt, wie wichtig es ist, dass Fachleute ihre Erfahrungen und ihr Wissen teilen, um die Innovationskraft in der \u003ca href=\"https://www.docker.com/\"\u003eCloud-Native\u003c/a\u003e -Entwicklung zu fördern.\u003c/p\u003e\n\u003cp\u003eDie Entwicklungen in der Cloud-Technologie und die zunehmende Verbreitung von Microservices erfordern eine kontinuierliche Weiterbildung und Anpassung. Die Aktivitäten von Sunny und anderen Docker Captains unterstützen diese Notwendigkeit und tragen dazu bei, dass Entwickler und Unternehmen die Vorteile von Container-Technologien optimal nutzen können.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eNaga Santhosh Reddy Vootukuri ist ein Beispiel für einen engagierten Technologen, der durch Wissensaustausch und Community-Engagement zur Weiterentwicklung der Cloud-Native-Technologien beiträgt. Seine zukünftigen Projekte und Initiativen werden voraussichtlich weiterhin einen positiven Einfluss auf die Docker-Community und die breitere Entwicklerlandschaft haben.\u003c/p\u003e\n",
      "summary": "TL;DR Naga Santhosh Reddy Vootukuri, auch bekannt als Sunny, ist Principal Software Engineering Manager bei Microsoft Azure SQL und Docker Captain. Mit über 17 Jahren Erfahrung in der Entwicklung cloudbasierter Systeme hat er sich als Experte in den Bereichen Cloud Computing , Microservices und Docker etabliert. Seine Leidenschaft für Wissensaustausch und Community-Building zeigt sich in seinen Beiträgen zu Open-Source-Projekten sowie in seinen Veröffentlichungen und Vorträgen.\nHauptinhalt Naga Santhosh Reddy Vootukuri hat seine Karriere im Bereich der Softwareentwicklung bei Microsoft begonnen und ist mittlerweile ein angesehener Docker Captain. Seine Reise mit Docker begann 2016 in Shanghai, wo er durch einen Vortrag über Docker inspiriert wurde. Der Vortrag verdeutlichte die Vorteile von Docker für Entwickler, insbesondere die Möglichkeit, Probleme wie \u0026ldquo;Es funktioniert auf meinem Rechner\u0026rdquo; zu vermeiden. Diese Erkenntnis führte dazu, dass er sich intensiv mit Docker und Docker Desktop beschäftigte, was seine berufliche Entwicklung maßgeblich beeinflusste.\n",
      "image": "https://ayedo.de/from-the-captains-chair-naga-santhosh-reddy-vootukuri.png",
      "date_published": "2026-03-18T16:00:12Z",
      "date_modified": "2026-03-18T16:00:12Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","cloud-computing","microservices","software-engineering","open-source","azure-sql"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/the-invisible-rewrite-modernizing-the-kubernetes-image-promoter/",
      "url": "https://ayedo.de/news/the-invisible-rewrite-modernizing-the-kubernetes-image-promoter/",
      "title": "Die unsichtbare Umgestaltung: Modernisierung des Kubernetes Image Promoters",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Modernisierung des \u003ca href=\"https://kubernetes/\"\u003eKubernetes\u003c/a\u003e Image Promoters, kpromo, wurde erfolgreich abgeschlossen. Durch eine vollständige Neugestaltung des Codes wurde die Effizienz drastisch erhöht, die Fehleranfälligkeit reduziert und neue Funktionen wie SLSA-Provenienz und Schwachstellenscanning integriert.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDer \u003ca href=\"https://kubernetes/\"\u003eKubernetes\u003c/a\u003e Image Promoter, kpromo, ist ein zentrales Werkzeug für die Verwaltung von \u003ca href=\"https://kubernetes/\"\u003eContainer\u003c/a\u003e-Images in Kubernetes. Er ermöglicht das Kopieren von Images aus Staging-Registries in die Produktionsumgebung, signiert diese mit cosign, repliziert Signaturen über mehr als 20 regionale Spiegel und generiert SLSA-Provenienzattestierungen. Eine Störung dieses Tools hätte direkte Auswirkungen auf die Veröffentlichung neuer Kubernetes-Versionen.\u003c/p\u003e\n\u003cp\u003eUrsprünglich wurde der Image Promoter Ende 2018 als internes Projekt von Google ins Leben gerufen, um den manuellen Prozess der Bildübertragung zu automatisieren. Im Laufe der Jahre wuchs der Code und konsolidierte mehrere Tools in einer einzigen CLI, die schließlich in promo-tools umbenannt wurde. Trotz der Erfolge trug der Code 2025 die Last von sieben Jahren inkrementeller Änderungen, was zu Performance-Problemen und einer erschwerten Erweiterbarkeit führte.\u003c/p\u003e\n\u003cp\u003eUm diese Herausforderungen zu bewältigen, wurde im Februar 2026 die Neugestaltung des Image Promoters initiiert. Der Prozess wurde in mehrere Phasen unterteilt, um eine schrittweise Überprüfung und Validierung zu ermöglichen. Die erste Phase umfasste die Überarbeitung der Ratenbegrenzung, gefolgt von der Einführung klarer Schnittstellen für Registry- und Authentifizierungsoperationen. Die Pipeline-Engine wurde so gestaltet, dass Promotion als Sequenz von Phasen abläuft, was die Komplexität reduzierte.\u003c/p\u003e\n\u003cp\u003eWeitere Phasen beinhalteten die Implementierung von SLSA-Provenienzverifizierung, Schwachstellenscanning und die Trennung der Bildsignierung von der Signaturreplikation. Diese Schritte führten zur vollständigen Entfernung des alten monolithischen Codes und der Legacy-Abhängigkeiten.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Neugestaltung des kpromo-Systems hat mehrere technische Verbesserungen hervorgebracht. Die parallelisierten Registry-Lesevorgänge und die verbesserte Retry-Logik für Netzwerkoperationen erhöhen die Zuverlässigkeit des Systems. Zudem wurde eine neue Pipeline-Architektur implementiert, die eine bessere Handhabung von Zeitüberschreitungen und eine effizientere Nutzung von HTTP-Verbindungen ermöglicht. Die Integration von lokalen Registry-Tests und die Umstellung auf neue OCI-APIs für die Attestierung zeigen den Fokus auf moderne Standards und Praktiken.\u003c/p\u003e\n\u003cp\u003eDie Einführung von SLSA-Provenienz und Schwachstellenscanning als Standardfunktionen verbessert die Sicherheit und Nachvollziehbarkeit der \u003ca href=\"https://kubernetes/\"\u003eContainer\u003c/a\u003e-Images erheblich. Diese Veränderungen sind nicht nur für die Entwicklergemeinschaft von Bedeutung, sondern auch für Unternehmen, die auf eine sichere und effiziente Bereitstellung von Anwendungen angewiesen sind.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie erfolgreiche Neugestaltung des Kubernetes Image Promoters stellt einen wichtigen Schritt in Richtung einer robusteren und effizienteren \u003ca href=\"https://kubernetes/\"\u003eContainer\u003c/a\u003e-Management-Lösung dar. Zukünftige Entwicklungen könnten sich auf die weitere Optimierung von Automatisierungsprozessen und die Integration neuer Sicherheitsstandards konzentrieren.\u003c/p\u003e\n",
      "summary": "TL;DR Die Modernisierung des Kubernetes Image Promoters, kpromo, wurde erfolgreich abgeschlossen. Durch eine vollständige Neugestaltung des Codes wurde die Effizienz drastisch erhöht, die Fehleranfälligkeit reduziert und neue Funktionen wie SLSA-Provenienz und Schwachstellenscanning integriert.\nHauptinhalt Der Kubernetes Image Promoter, kpromo, ist ein zentrales Werkzeug für die Verwaltung von Container-Images in Kubernetes. Er ermöglicht das Kopieren von Images aus Staging-Registries in die Produktionsumgebung, signiert diese mit cosign, repliziert Signaturen über mehr als 20 regionale Spiegel und generiert SLSA-Provenienzattestierungen. Eine Störung dieses Tools hätte direkte Auswirkungen auf die Veröffentlichung neuer Kubernetes-Versionen.\n",
      "image": "https://ayedo.de/the-invisible-rewrite-modernizing-the-kubernetes-image-promoter.png",
      "date_published": "2026-03-17T00:00:00Z",
      "date_modified": "2026-03-17T00:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","image-promoter","container-management","slsa-provenance","vulnerability-scanning","cli-tools"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/achieving-test-reliability-for-native-e2e-testing-beyond-fixing-broken-tests/",
      "url": "https://ayedo.de/news/achieving-test-reliability-for-native-e2e-testing-beyond-fixing-broken-tests/",
      "title": "Erzielen von Testzuverlässigkeit für Native E2E-Tests: Über das Beheben defekter Tests hinaus",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eEnd-to-End (E2E) Tests sind entscheidend für native Anwendungen, jedoch oft anfällig für Instabilität. Die Herausforderungen liegen in der reaktiven Wartung, die zu einer fragilen Testumgebung führt. Eine proaktive Strategie zur Stabilisierung der Testinfrastruktur, klare Testverantwortlichkeiten und verbesserte Beobachtbarkeit sind notwendig, um die Zuverlässigkeit von E2E-Tests zu erhöhen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eE2E-Tests spielen eine zentrale Rolle in der Qualitätssicherung für native Anwendungen, die auf unterschiedlichen Plattformen, Bildschirmgrößen und Betriebssystemversionen laufen. Diese Tests sind besonders wichtig, um Verhaltensunterschiede in einem fragmentierten Ökosystem zu identifizieren. Die Aufrechterhaltung der Zuverlässigkeit von E2E-Tests stellt jedoch oft eine größere Herausforderung dar als die Entwicklung der Tests selbst.\u003c/p\u003e\n\u003cp\u003eEin häufiges Problem ist, dass Teams in einen reaktiven Wartungszyklus geraten, in dem sie ständig fehlerhafte Tests beheben, anstatt die zugrunde liegenden Ursachen für die Instabilität zu adressieren. Diese Herangehensweise führt zu einer fragilen Testumgebung, in der Tests häufig aus nicht produktbezogenen Gründen fehlschlagen. Dies erschwert es, echte Regressionen von Störgeräuschen zu unterscheiden und führt zu einem hohen Wartungsaufwand, da E2E-Tests gegen komplexe Umgebungen ausgeführt werden müssen.\u003c/p\u003e\n\u003cp\u003eEin weiteres Problem ist der Vertrauensverlust in die Test-Suites. Wenn Fehler häufig und unzuverlässig sind, ignorieren Teams oft die Testausgaben und verlassen sich stattdessen auf lokale Entwicklungen oder manuelle Qualitätssicherungszyklen. Dies kann dazu führen, dass automatisierte Tests weniger als Sicherheitsnetz und mehr als Belastung wahrgenommen werden, was die Release-Zyklen verlangsamt.\u003c/p\u003e\n\u003cp\u003eUm eine zuverlässige E2E-Testinfrastruktur aufzubauen, ist es entscheidend, die Testumgebung zu stabilisieren und klare Verantwortlichkeiten für Tests zu definieren. Eine Analyse historischer Testergebnisse zeigt oft, dass viele Fehler auf instabile Umgebungen oder unerwartete Zustände in Testkonten zurückzuführen sind. Beispielsweise können API-Latenzen in Testumgebungen häufig falsche negative Ergebnisse verursachen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Stabilisierung der Testumgebung sollte Priorität haben. Dazu gehört die Standardisierung der Geräte- und Umgebungs-Setups, um die Auswirkungen sporadischer Geräteprobleme oder Netzwerkinstabilitäten zu minimieren. Eine isolierte E2E-Testumgebung, die nicht von instabilen Builds oder experimentellen Features beeinflusst wird, kann die Zuverlässigkeit erheblich steigern.\u003c/p\u003e\n\u003cp\u003eDas Definieren klarer Testverantwortlichkeiten und das Reduzieren von störenden Warnmeldungen sind ebenfalls essenziell. Die Verbesserung der Beobachtbarkeit der Tests ermöglicht es Teams, Probleme frühzeitig zu erkennen und zu adressieren, bevor sie zu größeren Herausforderungen werden.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eUm die Zuverlässigkeit von E2E-Tests zu erhöhen, ist es entscheidend, proaktive Strategien zu entwickeln, die über das bloße Beheben von Fehlern hinausgehen. Eine robuste Testinfrastruktur und klare Verantwortlichkeiten sind Schlüsselkomponenten, um die Effizienz und das Vertrauen in automatisierte Tests zu steigern.\u003c/p\u003e\n\u003cp\u003eZusätzlich kann die Implementierung von \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003e und \u003ca href=\"/kubernetes/\"\u003eCloud-Native\u003c/a\u003e Technologien die Flexibilität und Skalierbarkeit der Testumgebung verbessern.\u003c/p\u003e\n",
      "summary": "TL;DR End-to-End (E2E) Tests sind entscheidend für native Anwendungen, jedoch oft anfällig für Instabilität. Die Herausforderungen liegen in der reaktiven Wartung, die zu einer fragilen Testumgebung führt. Eine proaktive Strategie zur Stabilisierung der Testinfrastruktur, klare Testverantwortlichkeiten und verbesserte Beobachtbarkeit sind notwendig, um die Zuverlässigkeit von E2E-Tests zu erhöhen.\nHauptinhalt E2E-Tests spielen eine zentrale Rolle in der Qualitätssicherung für native Anwendungen, die auf unterschiedlichen Plattformen, Bildschirmgrößen und Betriebssystemversionen laufen. Diese Tests sind besonders wichtig, um Verhaltensunterschiede in einem fragmentierten Ökosystem zu identifizieren. Die Aufrechterhaltung der Zuverlässigkeit von E2E-Tests stellt jedoch oft eine größere Herausforderung dar als die Entwicklung der Tests selbst.\n",
      "image": "https://ayedo.de/achieving-test-reliability-for-native-e2e-testing-beyond-fixing-broken-tests.png",
      "date_published": "2026-03-13T13:00:00Z",
      "date_modified": "2026-03-13T13:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","end-to-end-testing","test-reliability","native-apps","test-automation","quality-assurance"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/how-to-run-claude-code-with-docker-local-models-mcp-servers-and-secure-sandboxes/",
      "url": "https://ayedo.de/news/how-to-run-claude-code-with-docker-local-models-mcp-servers-and-secure-sandboxes/",
      "title": "Wie man Claude Code mit Docker ausführt: Lokale Modelle, MCP-Server und sichere Sandboxes",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eClaude Code, ein KI-gestützter Programmierassistent, kann mithilfe von \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e in einer sicheren und kontrollierten Umgebung betrieben werden. Durch die Integration von MCP-Servern und der Nutzung von Docker-Sandboxes wird eine effiziente, automatisierte und isolierte Entwicklungsumgebung geschaffen, die es Entwicklern ermöglicht, ihre Modelle und Tools sicher zu verbinden und autonom zu nutzen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eClaude Code hat sich als nützliches Werkzeug für Entwickler etabliert, das zunehmend auch von Nicht-Entwicklern verwendet wird. Um das volle Potenzial von Claude Code auszuschöpfen, ist eine geeignete lokale Infrastruktur erforderlich. \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e bietet eine Möglichkeit, Claude Code lokal zu betreiben, wodurch Entwickler vollständige Kontrolle über ihre Daten, Infrastruktur und Kosten erhalten. Die Integration erfolgt über den Docker Model Runner, der eine Anthropic-kompatible API bereitstellt, was die Nutzung von Claude Code in einer lokalen Umgebung erleichtert.\u003c/p\u003e\n\u003cp\u003eEin wichtiger Aspekt bei der Nutzung von Claude Code ist die Anbindung an reale Werkzeuge, Datenbanken und APIs. Hier kommen die MCP-Server ins Spiel, die sich als Standard zur Verbindung von Programmieragenten etabliert haben. Mit über 300 vorgefertigten, containerisierten MCP-Servern können Entwickler Claude Code schnell und unkompliziert mit verschiedenen Tools, wie Jira und GitHub, verbinden. Diese Integration erfolgt durch das \u003ca href=\"/kubernetes/\"\u003eDocker MCP Toolkit\u003c/a\u003e, das eine Ein-Klick-Bereitstellung in Docker Desktop ermöglicht und die Handhabung von Anmeldedaten automatisiert. Dadurch können Entwickler in Minuten anstatt in Stunden eine sichere und konsistente Arbeitsumgebung aufbauen.\u003c/p\u003e\n\u003cp\u003eZusätzlich ermöglicht die Verwendung von Docker Sandboxes eine sichere Ausführung von Claude Code und anderen Programmieragenten. Diese Sandboxes bieten isolierte Umgebungen, in denen Agenten autonom arbeiten können, ohne das Host-System zu gefährden. Wenn Claude Code beispielsweise Pakete installiert oder Dateien ändert, bleibt das Host-System unberührt. Diese Isolation ist entscheidend, um die Sicherheit während der Entwicklung zu gewährleisten.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Verwendung des Docker Model Runners ermöglicht es Entwicklern, Claude Code mit einer Anthropic-kompatiblen API zu betreiben, was eine nahtlose Integration und vollständige Kontrolle über die Entwicklungsressourcen bietet. Die MCP-Server erweitern die Funktionalität von Claude Code erheblich, indem sie eine einfache Verbindung zu verschiedenen Tools ermöglichen, was die Automatisierung von Entwicklungsaufgaben fördert. Die Implementierung von Docker Sandboxes stellt sicher, dass Agenten wie Claude Code in einer sicheren Umgebung operieren, was das Risiko von unerwünschten Änderungen am Host-System minimiert.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Kombination aus lokalem Modellbetrieb, sicherer Tool-Anbindung und isolierten Ausführungsumgebungen macht Docker zu einer leistungsstarken Plattform für die Nutzung von KI-gestützten Programmierassistenten wie Claude Code. Dies eröffnet Entwicklern neue Möglichkeiten, ihre Workflows zu optimieren und die Effizienz in der Softwareentwicklung zu steigern.\u003c/p\u003e\n",
      "summary": "TL;DR Claude Code, ein KI-gestützter Programmierassistent, kann mithilfe von Docker in einer sicheren und kontrollierten Umgebung betrieben werden. Durch die Integration von MCP-Servern und der Nutzung von Docker-Sandboxes wird eine effiziente, automatisierte und isolierte Entwicklungsumgebung geschaffen, die es Entwicklern ermöglicht, ihre Modelle und Tools sicher zu verbinden und autonom zu nutzen.\nHauptinhalt Claude Code hat sich als nützliches Werkzeug für Entwickler etabliert, das zunehmend auch von Nicht-Entwicklern verwendet wird. Um das volle Potenzial von Claude Code auszuschöpfen, ist eine geeignete lokale Infrastruktur erforderlich. Docker bietet eine Möglichkeit, Claude Code lokal zu betreiben, wodurch Entwickler vollständige Kontrolle über ihre Daten, Infrastruktur und Kosten erhalten. Die Integration erfolgt über den Docker Model Runner, der eine Anthropic-kompatible API bereitstellt, was die Nutzung von Claude Code in einer lokalen Umgebung erleichtert.\n",
      "image": "https://ayedo.de/how-to-run-claude-code-with-docker-local-models-mcp-servers-and-secure-sandboxes.png",
      "date_published": "2026-03-13T12:17:54Z",
      "date_modified": "2026-03-13T12:17:54Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","claude-code","mcp-server","entwicklungsumgebung","sichere-sandboxes","containerisierung"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/secure-agent-execution-with-nanoclaw-and-docker-sandboxes/",
      "url": "https://ayedo.de/news/secure-agent-execution-with-nanoclaw-and-docker-sandboxes/",
      "title": "Sichere Agentenausführung mit NanoClaw und Docker-Sandboxen",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Integration von NanoClaw mit \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Sandboxes ermöglicht eine sichere Ausführung von Agenten in isolierten Umgebungen. Diese Kombination bietet Unternehmen Transparenz durch einen minimalen Code und starke Isolation durch MicroVMs, wodurch die Sicherheit bei der Nutzung von KI-Agenten erhöht wird.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Entwicklung von Agenten, die als persönliche KI-Assistenten komplexe Aufgaben automatisieren, erfordert eine starke Isolation und Transparenz in der Codebasis. NanoClaw, ein leichtgewichtiges Agenten-Framework, hat sich mit \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Sandboxes zusammengetan, um Agenten eine sichere Ausführungsumgebung zu bieten. Jeder NanoClaw-Agent läuft in einer temporären, MicroVM-basierten \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Sandbox, die eine starke Betriebssystem-Isolation gewährleistet. Diese Architektur erfüllt bereits von Anfang an die Sicherheitsstandards für Unternehmen.\u003c/p\u003e\n\u003cp\u003eIn der aktuellen Landschaft haben Agenten ihre Rolle erweitert und agieren nicht mehr nur als Antwortgeber. Sie sind nun in der Lage, sich mit Live-Datenquellen zu verbinden, Code auszuführen und direkt in Plattformen wie Slack oder Discord zu arbeiten. Diese Entwicklung von Prototypen zu produktiven Systemen bringt zwei wesentliche Anforderungen mit sich: Transparenz und Isolation.\u003c/p\u003e\n\u003cp\u003eDie Transparenz wird durch die einfache Struktur von NanoClaw gewährleistet. Die Agenten basieren auf nur 15 Quellcodedateien, deren Zeilenanzahl bis zu 100 Mal kleiner ist als bei vielen Alternativen. Diese Einfachheit erleichtert die Risikobewertung und das Verständnis des Systemverhaltens.\u003c/p\u003e\n\u003cp\u003eDie Isolation ist ein weiterer kritischer Aspekt. Agenten müssen in stark eingeschränkten Umgebungen betrieben werden, um die Sicherheit zu gewährleisten. Durch die Integration in \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Sandboxes läuft jeder NanoClaw-Agent in einer eigenen MicroVM, die die Entwicklungsumgebung widerspiegelt und nur das Projekt-Workspace einbindet. Dadurch können Agenten Pakete installieren, Konfigurationen ändern und sogar \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e selbst ausführen, ohne das Host-System zu beeinträchtigen.\u003c/p\u003e\n\u003cp\u003eIn traditionellen Umgebungen kann die Aktivierung permissiver Agenten-Modi erhebliche Risiken mit sich bringen. In einer \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Sandbox wird dieses Risiko jedoch innerhalb der isolierten MicroVM begrenzt, die bei Bedarf sofort verworfen werden kann. Dies ermöglicht es, erweiterte Modi wie –dangerously-skip-permissions in der Produktion zu nutzen, da deren Auswirkungen vollständig eingegrenzt sind.\u003c/p\u003e\n\u003cp\u003eDie Kombination aus NanoClaw und \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e gewährleistet, dass Agenten mit größerer Autonomie arbeiten können, ohne dabei die Sicherheit zu gefährden. Agenten benötigen keine ständigen Genehmigungen mehr und können ihre Umgebung selbstständig anpassen und iterieren. Diese sichere Umgebung erlaubt es Agenten, neue Lösungsmöglichkeiten zu erkunden, während die Sicherheitsstandards des Unternehmens gewahrt bleiben.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Verwendung von MicroVMs zur Isolierung von Agenten bietet mehrere Vorteile. Neben der erhöhten Sicherheit ermöglicht es Unternehmen, Agenten flexibler und autonomer zu gestalten, da sie in einem geschützten Raum arbeiten können. Die Fähigkeit, Pakete zu installieren und Konfigurationen zu ändern, ohne das Host-System zu gefährden, ist entscheidend für die Effizienz und Effektivität von Agenten in modernen Arbeitsabläufen. Zudem wird durch die offene und minimalistische Codebasis von NanoClaw die Sicherheit und Nachvollziehbarkeit der Agenten gewährleistet.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Integration von NanoClaw mit \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Sandboxes stellt einen bedeutenden Fortschritt in der sicheren Agentenausführung dar. Unternehmen können nun von leistungsstarken Agenten profitieren, die sowohl sicher als auch transparent arbeiten. Diese Entwicklung könnte die Art und Weise, wie Agenten in Unternehmen eingesetzt werden, nachhaltig verändern.\u003c/p\u003e\n",
      "summary": "TL;DR Die Integration von NanoClaw mit Docker Sandboxes ermöglicht eine sichere Ausführung von Agenten in isolierten Umgebungen. Diese Kombination bietet Unternehmen Transparenz durch einen minimalen Code und starke Isolation durch MicroVMs, wodurch die Sicherheit bei der Nutzung von KI-Agenten erhöht wird.\nHauptinhalt Die Entwicklung von Agenten, die als persönliche KI-Assistenten komplexe Aufgaben automatisieren, erfordert eine starke Isolation und Transparenz in der Codebasis. NanoClaw, ein leichtgewichtiges Agenten-Framework, hat sich mit Docker Sandboxes zusammengetan, um Agenten eine sichere Ausführungsumgebung zu bieten. Jeder NanoClaw-Agent läuft in einer temporären, MicroVM-basierten Docker Sandbox, die eine starke Betriebssystem-Isolation gewährleistet. Diese Architektur erfüllt bereits von Anfang an die Sicherheitsstandards für Unternehmen.\n",
      "image": "https://ayedo.de/secure-agent-execution-with-nanoclaw-and-docker-sandboxes.png",
      "date_published": "2026-03-13T12:01:00Z",
      "date_modified": "2026-03-13T12:01:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","nanoclaws","docker-sandbox","microvms","agenten-sicherheit","isolierte-umgebungen"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/flexibility-over-lock-in-the-enterprise-shift-in-agent-strategy/",
      "url": "https://ayedo.de/news/flexibility-over-lock-in-the-enterprise-shift-in-agent-strategy/",
      "title": "Flexibilität statt Bindung: Der Unternehmenswandel in der Agentenstrategie",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie aktuelle Forschung zeigt, dass 95 % der Unternehmen Agenten als strategische Priorität ansehen, wobei der Fokus auf Flexibilität und der Vermeidung von Anbieterbindung liegt. Die Einführung von Multi-Model- und Multi-Cloud-Architekturen nimmt zu, während \u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e als Schlüsseltechnologie für die Entwicklung und den Betrieb von Agenten dient.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Entwicklung und Implementierung von Agenten hat sich zu einer zentralen strategischen Priorität für Unternehmen entwickelt. In einer umfassenden Umfrage unter über 800 Entwicklern und Entscheidungsträgern weltweit wurde festgestellt, dass Agenten über experimentelle Ansätze hinaus in eine frühe operative Reife übergehen. Dennoch bleibt die vollständige Integration in produktionsreife Plattformen eine Herausforderung. Sicherheitsbedenken und technische Komplexität sind die größten Hindernisse für die Akzeptanz von Agenten.\u003c/p\u003e\n\u003cp\u003eUnternehmen setzen zunehmend auf Multi-Model- und Multi-Cloud-Architekturen, um eine bessere Kontrolle über Leistung, Anpassungsfähigkeit, Datenschutz und \u003ca href=\"/compliance/\"\u003eCompliance\u003c/a\u003e zu erreichen. Fast zwei Drittel der Befragten kombinieren cloudbasierte und lokal gehostete Modelle, wobei 46 % zwischen vier und sechs Modelle innerhalb ihrer Agenten verwenden. Diese Vielfalt an Bereitstellungsumgebungen, einschließlich öffentlicher Clouds, On-Premises-Installationen und serverloser Plattformen, führt zu einer erhöhten Komplexität in der Orchestrierung und Governance. Eine signifikante Anzahl der Befragten identifiziert die Verwaltung mehrerer Komponenten als größte Herausforderung.\u003c/p\u003e\n\u003cp\u003eAngesichts der wachsenden Besorgnis über die Fragilität der Lieferkette und Anbieterbindung reagieren Unternehmen, indem sie ihre Arbeitslasten diversifizieren. 76 % der Befragten äußern aktive Bedenken hinsichtlich der Abhängigkeit von Anbietern. Die Verteilung von Arbeitslasten über verschiedene Modelle und Cloud-Umgebungen wird als Mittel zur Reduzierung dieser Abhängigkeiten angesehen. Die Hauptgründe für diesen Ansatz sind Kontrolle, Datenschutz und Compliance.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003e\u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e hat sich als grundlegende Technologie für die Entwicklung von Agenten etabliert. 94 % der befragten Organisationen nutzen Container in ihren Entwicklungs- oder Produktionsabläufen. Mit dem Wachstum von Agenteninitiativen wenden Teams die gleichen cloud-nativen Praktiken an, die auch ihre Anwendungs-Pipelines unterstützen, wie Microservices-Architekturen und CI/CD. Container spielen eine zentrale Rolle in der operativen Infrastruktur von Agenten. Erste Anzeichen einer Standardisierung in der Orchestrierung sind erkennbar, wobei 40 % der Teams, die mit Docker arbeiten, Docker Compose als ihre Orchestrierungsschicht verwenden.\u003c/p\u003e\n\u003cp\u003eDie Zukunft der Agententechnologie wird nicht monolithisch sein. Sie ist bereits geprägt von Multi-Cloud-, Multi-Model- und Multi-Umgebungsansätzen. Dies erfordert offene Standards und tragfähige Infrastrukturen, um das Vertrauen der Unternehmen zu erhalten und langfristige Flexibilität zu gewährleisten. Anstatt neue Lösungen zu erfinden, ist eine Standardisierung rund um eine offene, interoperable und tragbare Infrastruktur erforderlich.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Entwicklung einer flexiblen Agentenarchitektur, die auf Containerprinzipien basiert, wird entscheidend sein, um nachhaltige Ergebnisse zu erzielen und das Risiko der Anbieterbindung zu minimieren. Unternehmen, die jetzt in diese Technologien investieren, können ihre Produktivität steigern und gleichzeitig langfristige strategische Vorteile sichern.\u003c/p\u003e\n",
      "summary": "TL;DR Die aktuelle Forschung zeigt, dass 95 % der Unternehmen Agenten als strategische Priorität ansehen, wobei der Fokus auf Flexibilität und der Vermeidung von Anbieterbindung liegt. Die Einführung von Multi-Model- und Multi-Cloud-Architekturen nimmt zu, während Containerisierung als Schlüsseltechnologie für die Entwicklung und den Betrieb von Agenten dient.\nHauptinhalt Die Entwicklung und Implementierung von Agenten hat sich zu einer zentralen strategischen Priorität für Unternehmen entwickelt. In einer umfassenden Umfrage unter über 800 Entwicklern und Entscheidungsträgern weltweit wurde festgestellt, dass Agenten über experimentelle Ansätze hinaus in eine frühe operative Reife übergehen. Dennoch bleibt die vollständige Integration in produktionsreife Plattformen eine Herausforderung. Sicherheitsbedenken und technische Komplexität sind die größten Hindernisse für die Akzeptanz von Agenten.\n",
      "image": "https://ayedo.de/flexibility-over-lock-in-the-enterprise-shift-in-agent-strategy.png",
      "date_published": "2026-03-12T12:50:49Z",
      "date_modified": "2026-03-12T12:50:49Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","agentenstrategie","multi-cloud-architekturen","containerisierung","technische-komplexit-t","daten-sicherheit"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/building-ai-teams-how-docker-sandboxes-and-docker-agent-transform-development/",
      "url": "https://ayedo.de/news/building-ai-teams-how-docker-sandboxes-and-docker-agent-transform-development/",
      "title": "AI-Teams aufbauen: Wie Docker-Sandboxes und Docker-Agenten die Entwicklung verändern",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDocker Agent ist ein Open-Source-Tool, das die Entwicklung durch spezialisierte KI-Agenten revolutioniert. Diese Agenten arbeiten autonom zusammen, um komplexe Aufgaben zu bewältigen, indem sie spezifische Rollen übernehmen und sich gegenseitig unterstützen, was zu einer höheren Effizienz und Qualität in der Softwareentwicklung führt.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Entwicklung von Software kann oft überwältigend sein, insbesondere wenn Entwickler mehrere Rollen gleichzeitig ausfüllen müssen, von Produktmanager über Designer bis hin zu QA-Spezialisten. \u003ca href=\"https://www.docker.com/\"\u003eDocker\u003c/a\u003e Agent bietet eine Lösung, indem es Teams aus spezialisierten KI-Agenten erstellt, die jeweils bestimmte Aufgaben übernehmen. Anstatt einen allgemeinen KI-Algorithmus für alle Aufgaben zu verwenden, können Entwickler Agenten mit spezifischen Rollen definieren, die gemeinsam an der Lösung komplexer Probleme arbeiten.\u003c/p\u003e\n\u003cp\u003eEin typisches Setup umfasst einen „Root-Agenten“, der als Produktmanager fungiert und die Aufgaben an andere Agenten delegiert. Diese Agenten sind auf verschiedene Bereiche spezialisiert, wie UI/UX-Design, Backend-Entwicklung und Qualitätssicherung. Zum Beispiel erstellt der Designer Wireframes, der Awesome Engineer implementiert die Benutzeroberfläche, der QA-Agent testet die Software, und der Fixer Engineer behebt Probleme. Jeder Agent nutzt ein eigenes KI-Modell und hat Zugriff auf verschiedene Werkzeuge, die für seine Aufgaben relevant sind.\u003c/p\u003e\n\u003cp\u003eDie Konfiguration der Agenten erfolgt über fünf zentrale Attribute:\u003c/p\u003e\n\u003col\u003e\n\u003cli\u003e\u003cstrong\u003eModel\u003c/strong\u003e: Das verwendete KI-Modell (z.B. openai/gpt-5).\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eDescription\u003c/strong\u003e: Eine kurze Zusammenfassung der Rolle des Agenten.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eInstruction\u003c/strong\u003e: Detaillierte Anweisungen, was der Agent tun soll.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eSub_agents\u003c/strong\u003e: Eine Liste von Agenten, an die dieser Agent Aufgaben delegieren kann.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eToolsets\u003c/strong\u003e: Die Werkzeuge, die dem Agenten zur Verfügung stehen, wie Dateisystem, Shell und persistenten Speicher.\u003c/li\u003e\n\u003c/ol\u003e\n\u003cp\u003eDiese Struktur ermöglicht eine präzise Kontrolle über die Fähigkeiten jedes Agenten und deren Zusammenarbeit.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Aufteilung der Aufgaben auf spezialisierte Agenten hat mehrere Vorteile. Erstens reduziert sie die Notwendigkeit für ständiges Kontextwechseln, was zu einer höheren Produktivität führt. Zweitens können Agenten parallel an verschiedenen Aspekten eines Projekts arbeiten, was die Effizienz steigert. Die Spezialisierung ermöglicht es den Agenten, qualitativ hochwertigere Ergebnisse in ihrem jeweiligen Bereich zu liefern. Darüber hinaus erleichtert die klare Trennung der Aufgaben die Wartung und Iteration der Software.\u003c/p\u003e\n\u003cp\u003eTrotz dieser Vorteile gibt es auch Herausforderungen, insbesondere in Bezug auf die Sicherheit. Der Einsatz von KI-Agenten erfordert sorgfältige Überlegungen zur Sicherheit, um potenzielle Risiken zu minimieren.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003e\u003ca href=\"https://www.docker.com/\"\u003eDocker\u003c/a\u003e Agent stellt einen innovativen Ansatz zur Optimierung von Softwareentwicklungsprozessen dar. Durch die Nutzung spezialisierter KI-Agenten können Teams effizienter arbeiten und qualitativ hochwertige Software entwickeln. Zukünftige Entwicklungen sollten sich auf die Verbesserung der Sicherheit und die Integration dieser Technologien in bestehende Entwicklungsumgebungen konzentrieren.\u003c/p\u003e\n",
      "summary": "TL;DR Docker Agent ist ein Open-Source-Tool, das die Entwicklung durch spezialisierte KI-Agenten revolutioniert. Diese Agenten arbeiten autonom zusammen, um komplexe Aufgaben zu bewältigen, indem sie spezifische Rollen übernehmen und sich gegenseitig unterstützen, was zu einer höheren Effizienz und Qualität in der Softwareentwicklung führt.\nHauptinhalt Die Entwicklung von Software kann oft überwältigend sein, insbesondere wenn Entwickler mehrere Rollen gleichzeitig ausfüllen müssen, von Produktmanager über Designer bis hin zu QA-Spezialisten. Docker Agent bietet eine Lösung, indem es Teams aus spezialisierten KI-Agenten erstellt, die jeweils bestimmte Aufgaben übernehmen. Anstatt einen allgemeinen KI-Algorithmus für alle Aufgaben zu verwenden, können Entwickler Agenten mit spezifischen Rollen definieren, die gemeinsam an der Lösung komplexer Probleme arbeiten.\n",
      "image": "https://ayedo.de/building-ai-teams-how-docker-sandboxes-and-docker-agent-transform-development.png",
      "date_published": "2026-03-11T13:00:00Z",
      "date_modified": "2026-03-11T13:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","ai-agenten","softwareentwicklung","team-organisation","k-nstliche-intelligenz","devops"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/whats-holding-back-ai-agents-its-still-security/",
      "url": "https://ayedo.de/news/whats-holding-back-ai-agents-its-still-security/",
      "title": "Was hält KI-Agenten zurück? Es ist immer noch die Sicherheit",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Sicherheit von KI-Agenten stellt eine zentrale Herausforderung für deren Skalierung in Unternehmen dar. Obwohl 60 % der Organisationen bereits KI-Agenten in Produktion haben, hemmt die Unsicherheit bezüglich Sicherheitsprotokollen und Governance-Strukturen deren umfassende Implementierung. Es besteht ein Bedarf an neuen, sicherheitsorientierten Plattformen, um das volle Potenzial dieser Technologien auszuschöpfen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDer Einsatz von KI-Agenten hat in den letzten Jahren stark zugenommen, wobei 95 % der befragten Entwickler und Entscheidungsträger angeben, dass der Bau von Agenten eine strategische Priorität darstellt. Der Großteil der Organisationen hat den Übergang von Experimenten zu produktiven Anwendungen vollzogen, wobei 60 % bereits KI-Agenten in ihren Betriebsabläufen integriert haben. Diese Entwicklung wird vor allem durch den Wunsch nach höherer Produktivität und Effizienz vorangetrieben, nicht primär durch Kostensenkung oder Umsatzsteigerung.\u003c/p\u003e\n\u003cp\u003eTrotz dieser Fortschritte bleibt die Skalierung von KI-Agenten durch Sicherheitsbedenken gehemmt. In einer Umfrage gaben 40 % der Befragten an, dass Sicherheitsfragen die größte Hürde beim Aufbau von Agenten darstellen. Diese Sicherheitsbedenken sind nicht auf eine bestimmte Schicht des Technologie-Stacks beschränkt, sondern betreffen alle Ebenen. Bei der Infrastruktur wird der Bedarf an sicherem Sandboxing und Laufzeitisolierung betont, selbst für interne Agenten.\u003c/p\u003e\n\u003cp\u003eZudem führt die zunehmende Komplexität in den Betriebsabläufen zu Sicherheitsproblemen. Mit mehr Tools, Integrationen und Orchestrierungslogik wird es schwieriger, den Überblick über die gesamten Abläufe zu behalten, was zu Blindstellen und damit zu erhöhten Risiken führt. 45 % der Organisationen berichten, dass die Gewährleistung der Sicherheit und Vertrauenswürdigkeit von Tools eine der größten Herausforderungen darstellt.\u003c/p\u003e\n\u003cp\u003eEin weiterer Aspekt ist die Nutzung des \u003ca href=\"https://de.wikipedia.org/wiki/Model_Context_Protocol\"\u003eModel Context Protocol\u003c/a\u003e (MCP), das Agenten eine standardisierte Verbindung zu Tools und externen Systemen ermöglicht. Während 85 % der fortgeschritteneren Nutzer mit MCP vertraut sind, zeigen die Daten, dass viele Teams MCP ohne die notwendigen Sicherheitsgarantien und operativen Kontrollen implementieren. Sicherheitsbedenken wie Prompt Injection, Tool Poisoning und grundlegende Fragen zu Zugangskontrollen und Authentifizierung sind weit verbreitet.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Unsicherheit in Bezug auf die Sicherheit von KI-Agenten hat direkte Auswirkungen auf deren Einsatzmöglichkeiten in Unternehmen. Die Notwendigkeit, Sicherheitsprotokolle zu implementieren, die sowohl die Isolation sensibler Systeme als auch die Einhaltung von \u003ca href=\"https://de.wikipedia.org/wiki/Compliance\"\u003eCompliance\u003c/a\u003e -Vorgaben gewährleisten, ist entscheidend. Der gegenwärtige Stand der Sicherheitstechnologien im Zusammenhang mit MCP ist unzureichend, was bedeutet, dass Organisationen in einer \u0026ldquo;Leap-of-Faith\u0026rdquo;-Phase operieren, in der sie Technologien ohne die erforderlichen Sicherheitsgarantien annehmen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Sicherheit von KI-Agenten ist der entscheidende Faktor für deren erfolgreiche Implementierung in Unternehmen. Um das volle Potenzial dieser Technologien auszuschöpfen, benötigen Unternehmen neue Plattformen, die von Grund auf sicherheitsorientiert sind und integrierte Governance- und Richtlinienmechanismen bieten.\u003c/p\u003e\n",
      "summary": "TL;DR Die Sicherheit von KI-Agenten stellt eine zentrale Herausforderung für deren Skalierung in Unternehmen dar. Obwohl 60 % der Organisationen bereits KI-Agenten in Produktion haben, hemmt die Unsicherheit bezüglich Sicherheitsprotokollen und Governance-Strukturen deren umfassende Implementierung. Es besteht ein Bedarf an neuen, sicherheitsorientierten Plattformen, um das volle Potenzial dieser Technologien auszuschöpfen.\nHauptinhalt Der Einsatz von KI-Agenten hat in den letzten Jahren stark zugenommen, wobei 95 % der befragten Entwickler und Entscheidungsträger angeben, dass der Bau von Agenten eine strategische Priorität darstellt. Der Großteil der Organisationen hat den Übergang von Experimenten zu produktiven Anwendungen vollzogen, wobei 60 % bereits KI-Agenten in ihren Betriebsabläufen integriert haben. Diese Entwicklung wird vor allem durch den Wunsch nach höherer Produktivität und Effizienz vorangetrieben, nicht primär durch Kostensenkung oder Umsatzsteigerung.\n",
      "image": "https://ayedo.de/whats-holding-back-ai-agents-its-still-security.png",
      "date_published": "2026-03-10T12:59:28Z",
      "date_modified": "2026-03-10T12:59:28Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","ki-agenten","sicherheit","governance-strukturen","skalierung","technologie-implementierung"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/announcing-the-ai-gateway-working-group/",
      "url": "https://ayedo.de/news/announcing-the-ai-gateway-working-group/",
      "title": "Ankündigung der AI Gateway Arbeitsgruppe",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie AI Gateway Arbeitsgruppe wurde gegründet, um Standards und Best Practices für die Netzwerk-Infrastruktur zur Unterstützung von KI-Workloads in \u003ca href=\"/kubernetes/\"\u003eKubernetes-Umgebungen\u003c/a\u003e zu entwickeln. Die Gruppe fokussiert sich auf die Implementierung des Gateway API-Spezifikationsrahmens und adressiert zentrale Herausforderungen wie Payload-Verarbeitung und Egress-Gateways.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie \u003ca href=\"/kubernetes/\"\u003eKubernetes-Community\u003c/a\u003e hat die AI Gateway Arbeitsgruppe ins Leben gerufen, um die Entwicklung von Standards und Best Practices für die Netzwerk-Infrastruktur zu fördern, die speziell für KI-Workloads in Kubernetes ausgelegt ist. Ein AI Gateway bezeichnet dabei die Netzwerkinfrastruktur, die Proxys, Load-Balancer und andere Komponenten umfasst, um Richtlinien für KI-Traffic durchzusetzen. Zu den Kernfunktionen eines AI Gateways gehören unter anderem tokenbasierte Rate-Limitierung für KI-APIs, feingranulare Zugriffskontrollen für Inferenz-APIs sowie die Möglichkeit zur Payload-Inspektion für intelligentes Routing und Caching.\u003c/p\u003e\n\u003cp\u003eDie Arbeitsgruppe hat sich klare Ziele gesetzt, darunter die Entwicklung deklarativer APIs und Standards für das Networking von KI-Workloads in Kubernetes sowie die Förderung der Zusammenarbeit innerhalb der Community, um Konsens über Best Practices zu erreichen. Ein weiterer wichtiger Aspekt ist die Sicherstellung einer erweiterbaren Architektur, die Komponierbarkeit und Plug-and-Play-Funktionen für KI-spezifische Gateway-Erweiterungen bietet.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eAktuell arbeitet die AI Gateway Arbeitsgruppe an mehreren aktiven Vorschlägen, die entscheidende Herausforderungen im Bereich des Networking für KI-Workloads adressieren. Ein zentraler Vorschlag betrifft die Payload-Verarbeitung, die es ermöglicht, vollständige HTTP-Anfragen und -Antworten zu inspizieren und zu transformieren. Dies ist entscheidend für die Sicherheit von KI-Inferenzen, indem es Schutz gegen böswillige Eingaben und Anomalien im Datenverkehr bietet. Zudem wird eine semantische Routing-Funktionalität und intelligentes Caching zur Optimierung der Inferenzkosten und Reaktionszeiten entwickelt.\u003c/p\u003e\n\u003cp\u003eEin weiterer wichtiger Vorschlag befasst sich mit Egress-Gateways, die es modernen KI-Anwendungen ermöglichen, sicher auf externe Inferenzdienste zuzugreifen. Diese Gateways sollen Standards für die sichere Weiterleitung von Traffic außerhalb des Clusters definieren und Funktionen wie die Integration externer KI-Dienste und fortgeschrittenes Traffic-Management bieten. Dies ist besonders relevant für Plattformbetreiber und Entwickler, die eine zuverlässige Anbindung an externe KI-Dienste benötigen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Gründung der AI Gateway Arbeitsgruppe unterstreicht das Engagement der Kubernetes-Community, eine standardisierte Infrastruktur für KI-Workloads zu schaffen. Angesichts der zunehmenden Integration von KI in moderne Anwendungen ist es entscheidend, robuste und sichere Lösungen zu entwickeln, die den spezifischen Anforderungen von Inferenz-Workloads gerecht werden.\u003c/p\u003e\n",
      "summary": "TL;DR Die AI Gateway Arbeitsgruppe wurde gegründet, um Standards und Best Practices für die Netzwerk-Infrastruktur zur Unterstützung von KI-Workloads in Kubernetes-Umgebungen zu entwickeln. Die Gruppe fokussiert sich auf die Implementierung des Gateway API-Spezifikationsrahmens und adressiert zentrale Herausforderungen wie Payload-Verarbeitung und Egress-Gateways.\nHauptinhalt Die Kubernetes-Community hat die AI Gateway Arbeitsgruppe ins Leben gerufen, um die Entwicklung von Standards und Best Practices für die Netzwerk-Infrastruktur zu fördern, die speziell für KI-Workloads in Kubernetes ausgelegt ist. Ein AI Gateway bezeichnet dabei die Netzwerkinfrastruktur, die Proxys, Load-Balancer und andere Komponenten umfasst, um Richtlinien für KI-Traffic durchzusetzen. Zu den Kernfunktionen eines AI Gateways gehören unter anderem tokenbasierte Rate-Limitierung für KI-APIs, feingranulare Zugriffskontrollen für Inferenz-APIs sowie die Möglichkeit zur Payload-Inspektion für intelligentes Routing und Caching.\n",
      "image": "https://ayedo.de/announcing-the-ai-gateway-working-group.png",
      "date_published": "2026-03-09T18:00:00Z",
      "date_modified": "2026-03-09T18:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","ai-gateway","network-infrastructure","api-standards","payload-processing","egress-gateways"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-opentofu-day/",
      "url": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-opentofu-day/",
      "title": "KubeCon + CloudNativeCon Europa 2026 Ko-lokales Event Deep Dive: OpenTofu Tag",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eOpenTofu Day, das im Rahmen der KubeCon + CloudNativeCon Europa 2026 stattfindet, bietet \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e und Plattform-Engineers eine Plattform, um sich über die Entwicklungen im Bereich Infrastructure-as-Code (IaC) auszutauschen. Nach einem Jahr als CNCF Sandbox-Projekt fokussiert sich die Veranstaltung auf die nachhaltige Nutzung und die reale Implementierung von OpenTofu in Unternehmensumgebungen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eOpenTofu Day hat sich seit seiner Einführung bei der KubeCon Europa 2024 in Paris als bedeutendes Event etabliert, das sich mit den Herausforderungen und Chancen im Bereich Infrastructure-as-Code auseinandersetzt. Angesichts der jüngsten Lizenzänderungen und der Konsolidierung im IaC-Ökosystem evaluieren viele Organisationen derzeit alternative Open-Source-Lösungen. OpenTofu, das über 10 Millionen Downloads auf GitHub verzeichnet, bietet eine neutrale Basis, die der \u003ca href=\"/kubernetes/\"\u003eCloud-Native\u003c/a\u003e Community langfristig als vertrauenswürdige Lösung dient.\u003c/p\u003e\n\u003cp\u003eDie Veranstaltung richtet sich insbesondere an DevOps- und Plattform-Engineers sowie Führungskräfte im Bereich Infrastruktur, die bereits Terraform in der Produktion einsetzen und eine Migration zu OpenTofu planen. Die Agenda umfasst praxisnahe Vorträge und Diskussionen, die sich mit der realen Adoption in Unternehmen, Innersource-Modellen in großen Organisationen und der Leistungsmessung mit OpenTelemetry befassen. Auch die Skalierung von OpenTofu in komplexen Umgebungen wird thematisiert.\u003c/p\u003e\n\u003cp\u003eIn diesem Jahr wird OpenTofu Day zum fünften Mal ausgerichtet und markiert das erste vollständige Jahr des Projekts als CNCF Sandbox-Projekt. Der Fokus hat sich von der anfänglichen Akzeptanz hin zur Produktionsreife und langfristigen Nachhaltigkeit verschoben. Die Veranstaltung bietet eine Plattform für den Austausch von Erfahrungen zwischen Endbenutzern und Projektmitarbeitern, was zu einer vielfältigeren Sprecherliste führt.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eOpenTofu Day umfasst eine Reihe von Formaten, darunter Keynotes, interaktive Panels und Lightning Talks. Die Veranstaltung beginnt mit einem Update zum aktuellen Stand des Projekts, das neue Funktionen, den Fahrplan und das Wachstum der Community behandelt. Ein interaktives \u0026ldquo;Ask the Devs\u0026rdquo;-Panel ermöglicht es den Teilnehmern, direkt mit den Hauptmaintainern des Projekts in Kontakt zu treten. Die Sessions sind so gestaltet, dass sie sowohl für erfahrene Nutzer als auch für Neueinsteiger wertvolle Informationen bieten.\u003c/p\u003e\n\u003cp\u003eErfahrungen mit OpenTofu oder ähnlichen IaC-Tools sind hilfreich, um den größtmöglichen Nutzen aus der Veranstaltung zu ziehen. Dennoch sind diese nicht zwingend erforderlich, sodass auch Neulinge wertvolle Einblicke in die zukünftige Richtung des IaC-Ökosystems gewinnen können.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eOpenTofu Day stellt eine wichtige Gelegenheit dar, um sich über die neuesten Entwicklungen im Bereich Infrastructure-as-Code zu informieren und sich mit Gleichgesinnten zu vernetzen. Die Veranstaltung fördert die Community-Orientierung des Projekts und bietet eine Plattform für den Austausch von Ideen und Erfahrungen in einem sich schnell entwickelnden technologischen Umfeld.\u003c/p\u003e\n",
      "summary": "TL;DR OpenTofu Day, das im Rahmen der KubeCon + CloudNativeCon Europa 2026 stattfindet, bietet DevOps und Plattform-Engineers eine Plattform, um sich über die Entwicklungen im Bereich Infrastructure-as-Code (IaC) auszutauschen. Nach einem Jahr als CNCF Sandbox-Projekt fokussiert sich die Veranstaltung auf die nachhaltige Nutzung und die reale Implementierung von OpenTofu in Unternehmensumgebungen.\nHauptinhalt OpenTofu Day hat sich seit seiner Einführung bei der KubeCon Europa 2024 in Paris als bedeutendes Event etabliert, das sich mit den Herausforderungen und Chancen im Bereich Infrastructure-as-Code auseinandersetzt. Angesichts der jüngsten Lizenzänderungen und der Konsolidierung im IaC-Ökosystem evaluieren viele Organisationen derzeit alternative Open-Source-Lösungen. OpenTofu, das über 10 Millionen Downloads auf GitHub verzeichnet, bietet eine neutrale Basis, die der Cloud-Native Community langfristig als vertrauenswürdige Lösung dient.\n",
      "image": "https://ayedo.de/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-opentofu-day.png",
      "date_published": "2026-03-09T13:00:00Z",
      "date_modified": "2026-03-09T13:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","opentofu","infrastructure-as-code","kubecon","devops"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/registry-mirror-authentication-with-kubernetes-secrets/",
      "url": "https://ayedo.de/news/registry-mirror-authentication-with-kubernetes-secrets/",
      "title": "Authentifizierung von Registry-Spiegeln mit Kubernetes-Secrets",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Authentifizierung von Registry-Spiegeln in Kubernetes wird durch die Verwendung von CRI-O Credential Provider Plugins vereinfacht, wodurch Sicherheitsgrenzen gewahrt und die Verwaltung von Zugangsdaten optimiert wird. Diese Lösung ist besonders relevant für Produktionsumgebungen, in denen private Registries und \u003ca href=\"/compliance/\"\u003eCompliance-Anforderungen\u003c/a\u003e berücksichtigt werden müssen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eIn modernen \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e Clustern werden [Container]-Images häufig aus privaten Registries abgerufen, was in vielen Produktionsumgebungen täglich Tausende von Pull-Anfragen zur Folge hat. Während große Cloud-Anbieter wie AWS, Google und Azure integrierte Credential-Provider für ihre Registries anbieten, stellt die Authentifizierung zu privaten Registry-Spiegeln oder Pull-Through-Caches eine Herausforderung dar. Dies ist besonders relevant in luftdicht abgeschotteten Umgebungen, in denen Organisationen eigene Spiegel-Registries betreiben, um Egress-Kosten zu senken, die Leistung zu verbessern oder Compliance-Vorgaben einzuhalten.\u003c/p\u003e\n\u003cp\u003eTraditionelle Ansätze zur Authentifizierung erfordern eine Konfiguration auf Knotenebene, was bedeutet, dass Zugangsdaten global für alle Namespaces konfiguriert werden müssen. Dies führt zu mehreren Problemen: Erstens wird die Sicherheitsisolierung verletzt, da ein kompromittierter Pod in einem Namespace auf die Zugangsdaten eines anderen Namespace zugreifen kann. Zweitens steigt die operationale Komplexität, da Cluster-Administratoren zentralisierte Zugangsdaten verwalten müssen, was die Autonomie der Teams einschränkt. Drittens entstehen Compliance-Bedenken, da die gemeinsame Nutzung von Zugangsdaten über Projektgrenzen hinweg gegen Sicherheitsrichtlinien verstoßen kann.\u003c/p\u003e\n\u003cp\u003eDie Einführung des Kubelet Credential Provider Plugins in Kubernetes 1.20, das in Version 1.26 stabilisiert wurde, bietet eine Lösung für diese Herausforderungen. Dieses API ermöglicht externen ausführbaren Programmen, dynamisch Registry-Zugangsdaten bereitzustellen, wodurch die statische Konfiguration auf Knotenebene überflüssig wird. Der Plugin-Mechanismus funktioniert über Standard-Eingabe und -Ausgabe. Wenn der Kubelet ein Image abrufen muss, wird das Plugin aufgerufen, um die erforderlichen Zugangsdaten bereitzustellen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eFür die Implementierung des Kubelet Credential Provider sind bestimmte Voraussetzungen erforderlich, darunter Kubernetes-Version 1.33 oder höher und CRI-O-Version 1.34 oder höher. Zudem muss das Feature Gate \u003ccode\u003eKubeletServiceAccountTokenForCredentialProviders\u003c/code\u003e aktiviert sein, um sicherzustellen, dass das Kubelet Service-Account-Tokens an die Credential-Provider-Plugins übergeben kann. Diese Tokens sind entscheidend, um die Authentifizierung über die Identität des Pods zu ermöglichen.\u003c/p\u003e\n\u003cp\u003eDie Konfiguration erfolgt über zwei Kubelet-Flags, die den Pfad zur Konfigurationsdatei und das Verzeichnis der Plugin-Binärdateien angeben. Die Konfigurationsdatei definiert, welche Plugins für welche Image-Muster zuständig sind. Ein Beispiel für eine vollständige Konfiguration zeigt, wie die Plugins für gängige Registries wie \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Hub und Quay.io konfiguriert werden können.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Verwendung von CRI-O Credential Provider Plugins stellt einen bedeutenden Fortschritt in der Verwaltung von [Container]-Registry-Zugangsdaten dar und trägt zur Verbesserung der Sicherheit und Effizienz in Kubernetes-Umgebungen bei. Diese Entwicklungen sind besonders wichtig, um den Anforderungen an Compliance und Sicherheit in modernen \u003ca href=\"/kubernetes/\"\u003eCloud-Native\u003c/a\u003e Anwendungen gerecht zu werden.\u003c/p\u003e\n",
      "summary": "TL;DR Die Authentifizierung von Registry-Spiegeln in Kubernetes wird durch die Verwendung von CRI-O Credential Provider Plugins vereinfacht, wodurch Sicherheitsgrenzen gewahrt und die Verwaltung von Zugangsdaten optimiert wird. Diese Lösung ist besonders relevant für Produktionsumgebungen, in denen private Registries und Compliance-Anforderungen berücksichtigt werden müssen.\nHauptinhalt In modernen Kubernetes Clustern werden [Container]-Images häufig aus privaten Registries abgerufen, was in vielen Produktionsumgebungen täglich Tausende von Pull-Anfragen zur Folge hat. Während große Cloud-Anbieter wie AWS, Google und Azure integrierte Credential-Provider für ihre Registries anbieten, stellt die Authentifizierung zu privaten Registry-Spiegeln oder Pull-Through-Caches eine Herausforderung dar. Dies ist besonders relevant in luftdicht abgeschotteten Umgebungen, in denen Organisationen eigene Spiegel-Registries betreiben, um Egress-Kosten zu senken, die Leistung zu verbessern oder Compliance-Vorgaben einzuhalten.\n",
      "image": "https://ayedo.de/registry-mirror-authentication-with-kubernetes-secrets.png",
      "date_published": "2026-03-09T11:00:00Z",
      "date_modified": "2026-03-09T11:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubernetes","registry-authentication","cri-o","credential-provider"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/celebrating-women-in-ai-3-questions-with-cecilia-liu-on-leading-dockers-mcp-strategy/",
      "url": "https://ayedo.de/news/celebrating-women-in-ai-3-questions-with-cecilia-liu-on-leading-dockers-mcp-strategy/",
      "title": "Frauen in der KI feiern: 3 Fragen an Cecilia Liu zur Leitung von Dockers MCP-Strategie",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eCecilia Liu, Senior Product Manager bei \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e, leitet die Strategie für Docker\u0026rsquo;s MCP-Lösungen, die darauf abzielen, Entwicklern und Unternehmen eine sichere und skalierbare Nutzung von AI-Tools zu ermöglichen. Ihre Vision fokussiert sich auf die Verbesserung der Benutzerfreundlichkeit, die Unterstützung von Entwicklern bei der Integration von MCP-Servern und die Gewährleistung von Sicherheitsstandards in der Bereitstellung.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eCecilia Liu verantwortet die Produktmanagementstrategie für Docker\u0026rsquo;s MCP (Machine Control Platform) Lösungen, die speziell für die sichere und skalierbare Ausführung von MCP-Servern konzipiert sind. Mit ihrem technischen Hintergrund in AI-Frameworks und einem MBA von der NYU Stern bringt sie eine fundierte Perspektive in die Entwicklung von Lösungen, die sowohl für Unternehmen als auch für individuelle Entwickler von Bedeutung sind.\u003c/p\u003e\n\u003cp\u003eEin zentrales Anliegen von Liu ist es, die Herausforderungen zu adressieren, die Nutzer bei der Arbeit mit MCP-Servern häufig erleben. Dazu gehört die einfache Auffindbarkeit der richtigen Server, die Minimierung der Lernkurve für die Nutzung und die zuverlässige Bereitstellung und Verwaltung innerhalb von Teams oder Organisationen. Liu betont, dass die Produktivität der Entwickler im Mittelpunkt ihrer Strategie steht. Die MCP-Lösungen sollen es Entwicklern ermöglichen, ohne tiefgehende Infrastrukturkenntnisse sofort einen Mehrwert zu erzielen.\u003c/p\u003e\n\u003cp\u003eFür Endnutzer und Entwickler, die mit AI arbeiten, wird die Nutzung von MCP-Servern durch in-Produkt-Anleitungen erleichtert, die nicht nur die Konfiguration, sondern auch die Überprüfung der Betriebsbereitschaft umfassen. Dies wurde als direkte Reaktion auf Nutzerfeedback implementiert, das auf Schwierigkeiten bei der Überprüfung der Einrichtung hinwies.\u003c/p\u003e\n\u003cp\u003eFür Entwickler, die MCP-Server erstellen und in Agenten integrieren, liegt der Fokus auf der Bereitstellung von Werkzeugen, die eine schnellere und sicherere Entwicklung ermöglichen. Zudem wird die Bereitstellung von MCP-Lösungen für Sicherheits- und Unternehmensadministratoren optimiert, um eine kosteneffiziente Verwaltung über gesamte Organisationen hinweg zu gewährleisten. Dazu gehören maßgeschneiderte Kataloge, rollenbasierte Zugriffssteuerungen, Audit-Logging und Durchsetzung von Richtlinien, die Teams die notwendige Sichtbarkeit und Kontrolle bieten.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie MCP-Lösungen von \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e bieten eine integrierte Sicherheitsarchitektur, die für Unternehmen von entscheidender Bedeutung ist. Die Implementierung von Sicherheitsmechanismen wie \u003ca href=\"/compliance/\"\u003erollenbasierte Zugriffssteuerungen\u003c/a\u003e und Audit-Logs ermöglicht es Unternehmen, Risiken zu minimieren und die Einhaltung von Sicherheitsstandards zu gewährleisten. Die kontinuierliche Anpassung an die sich schnell ändernde AI-Landschaft stellt sicher, dass die Lösungen nicht nur aktuell sind, sondern auch zukunftssicher.\u003c/p\u003e\n\u003cp\u003eDie Benutzerfreundlichkeit der MCP-Tools fördert die Akzeptanz und Nutzung in Entwicklerteams, was zu einer schnelleren Integration von AI-Technologien in bestehende Workflows führt. Dies könnte zu einer signifikanten Steigerung der Effizienz und Produktivität in der Softwareentwicklung führen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie MCP-Strategie von \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e unter der Leitung von Cecilia Liu positioniert das Unternehmen gut für die zukünftige Entwicklung im Bereich AI-Tools. Die kontinuierliche Verbesserung der Benutzererfahrung und die Fokussierung auf Sicherheit sind entscheidende Faktoren, die Docker helfen werden, in einem dynamischen Markt wettbewerbsfähig zu bleiben.\u003c/p\u003e\n",
      "summary": "TL;DR Cecilia Liu, Senior Product Manager bei Docker, leitet die Strategie für Docker\u0026rsquo;s MCP-Lösungen, die darauf abzielen, Entwicklern und Unternehmen eine sichere und skalierbare Nutzung von AI-Tools zu ermöglichen. Ihre Vision fokussiert sich auf die Verbesserung der Benutzerfreundlichkeit, die Unterstützung von Entwicklern bei der Integration von MCP-Servern und die Gewährleistung von Sicherheitsstandards in der Bereitstellung.\nHauptinhalt Cecilia Liu verantwortet die Produktmanagementstrategie für Docker\u0026rsquo;s MCP (Machine Control Platform) Lösungen, die speziell für die sichere und skalierbare Ausführung von MCP-Servern konzipiert sind. Mit ihrem technischen Hintergrund in AI-Frameworks und einem MBA von der NYU Stern bringt sie eine fundierte Perspektive in die Entwicklung von Lösungen, die sowohl für Unternehmen als auch für individuelle Entwickler von Bedeutung sind.\n",
      "image": "https://ayedo.de/celebrating-women-in-ai-3-questions-with-cecilia-liu-on-leading-dockers-mcp-strategy.png",
      "date_published": "2026-03-06T12:59:30Z",
      "date_modified": "2026-03-06T12:59:30Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","frauen-in-der-ki","mcp-l-sungen","produktmanagement","ai-tools","entwickler-fokus"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-keycloakcon/",
      "url": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-keycloakcon/",
      "title": "KubeCon + CloudNativeCon Europa 2026 Co-located Event Deep Dive: KeycloakCon",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eKeycloakCon Europe 2026 ist ein spezialisiertes Event, das sich auf Identitäts- und Zugriffsmanagement (IAM) in \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Architekturen konzentriert. Es bietet eine Plattform für Fachleute, um Herausforderungen und Lösungen im Bereich der Authentifizierung und Autorisierung zu diskutieren, insbesondere im Kontext von Multi-Cluster-Plattformen und agentenbasierten Systemen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eKeycloakCon Europe 2026 findet im Rahmen von KubeCon + \u003ca href=\"/kubernetes/\"\u003eCloudNativeCon\u003c/a\u003e Europa statt und zielt darauf ab, die wachsenden Anforderungen an das Identitäts- und Zugriffsmanagement in modernen verteilten Systemen zu adressieren. Da cloud-native Architekturen immer komplexer werden und über mehrere Cluster, Dienste und Vertrauensdomänen hinweg operieren, wird IAM zunehmend als grundlegende Infrastruktur angesehen. Das Event bringt Praktiker, Maintainer und Branchenführer zusammen, um aktuelle Herausforderungen zu besprechen und bewährte Verfahren auszutauschen.\u003c/p\u003e\n\u003cp\u003eDas Programm umfasst sowohl fortgeschrittene Sessions, die sich mit spezifischen technischen Aspekten wie Airgap-nativem Identitätsmanagement befassen, als auch praxisnahe Vorträge, die häufige Fehler, wie etwa die falsche Konfiguration von Keycloak-Token, thematisieren. Teilnehmer, die bereits mit \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e oder verteilten Systemen arbeiten, können ihr Wissen über Authentifizierung, Autorisierung und Identitätsmuster vertiefen und direkt umsetzbare Einblicke gewinnen.\u003c/p\u003e\n\u003cp\u003eIn diesem Jahr liegt der Fokus auf der Rolle von Identität, Authentifizierung und Autorisierung als zentrale Bausteine cloud-nativer Systeme. Die Sessions behandeln aufkommende Themen wie Workload-Identität, Interaktionen zwischen Agenten und verifiable Credentials. Beispiele hierfür sind Vorträge über den Model Context Protocol (MCP) zur Autorisierung in Unternehmensanwendungen und die Verbindung zwischen menschlicher und Workload-Identität mittels SPIFFE.\u003c/p\u003e\n\u003cp\u003eDie Struktur des Events ist als halbtägige, einstufige Veranstaltung konzipiert, die eine durchgehende Lernerfahrung bietet. Die Vorträge sind so angelegt, dass sie von grundlegenden Konzepten über Projektupdates bis hin zu Produktionsfallstudien und zukunftsorientierten Themen reichen. Dies fördert den Austausch und die Diskussion innerhalb einer fokussierten Gemeinschaft.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Integration von Identitäts- und Zugriffsmanagement in cloud-native Architekturen erfordert eine Neuausrichtung traditioneller IAM-Ansätze. Mit dem Aufkommen von AI-gesteuerten und agentenbasierten Workloads müssen Identitätsmodelle angepasst werden, um nicht-menschliche Akteure und autonome Interaktionen zu unterstützen. KeycloakCon bietet eine Plattform, um diese Herausforderungen zu adressieren und innovative Lösungen zu entwickeln, die den Bedürfnissen der Community entsprechen.\u003c/p\u003e\n\u003cp\u003eDas Event ermöglicht es Open-Source-Beitragsleistenden, Ideen auszutauschen und die zukünftige Richtung der Keycloak-Entwicklung zu beeinflussen. Die Diskussionen fördern die Zusammenarbeit zwischen Entwicklern und Anwendern, was zu einer stärkeren Ausrichtung an den realen Bedürfnissen führt.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eKeycloakCon Europe 2026 bietet eine wertvolle Gelegenheit für Fachleute im Bereich IAM, sich über aktuelle Trends und Herausforderungen auszutauschen und gemeinsam an Lösungen zu arbeiten. Die Veranstaltung stärkt die Community und trägt zur Weiterentwicklung von Open-Source-Identitätslösungen bei.\u003c/p\u003e\n",
      "summary": "TL;DR KeycloakCon Europe 2026 ist ein spezialisiertes Event, das sich auf Identitäts- und Zugriffsmanagement (IAM) in cloud-nativen Architekturen konzentriert. Es bietet eine Plattform für Fachleute, um Herausforderungen und Lösungen im Bereich der Authentifizierung und Autorisierung zu diskutieren, insbesondere im Kontext von Multi-Cluster-Plattformen und agentenbasierten Systemen.\nHauptinhalt KeycloakCon Europe 2026 findet im Rahmen von KubeCon + CloudNativeCon Europa statt und zielt darauf ab, die wachsenden Anforderungen an das Identitäts- und Zugriffsmanagement in modernen verteilten Systemen zu adressieren. Da cloud-native Architekturen immer komplexer werden und über mehrere Cluster, Dienste und Vertrauensdomänen hinweg operieren, wird IAM zunehmend als grundlegende Infrastruktur angesehen. Das Event bringt Praktiker, Maintainer und Branchenführer zusammen, um aktuelle Herausforderungen zu besprechen und bewährte Verfahren auszutauschen.\n",
      "image": "https://ayedo.de/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-keycloakcon.png",
      "date_published": "2026-03-06T12:00:00Z",
      "date_modified": "2026-03-06T12:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","keycloak","identit-tsmanagement","authentifizierung","autorisierung"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/the-great-migration-why-every-ai-platform-is-converging-on-kubernetes/",
      "url": "https://ayedo.de/news/the-great-migration-why-every-ai-platform-is-converging-on-kubernetes/",
      "title": "Die große Migration: Warum jede AI-Plattform auf Kubernetes konvergiert",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eKubernetes hat sich von einer Plattform für stateless Webanwendungen zu einer zentralen Infrastruktur für die Ausführung von KI-Workloads gewandelt. 66 % der Organisationen, die generative KI-Modelle hosten, nutzen \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e für ihre Inferenzlasten. Die Konvergenz von Datenverarbeitung, Modelltraining und Inferenz auf Kubernetes vereinfacht die Betriebsabläufe und ermöglicht eine effiziente Ressourcennutzung.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Entwicklung von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e über das letzte Jahrzehnt hat eine fundamentale Transformation durchlaufen. Ursprünglich konzipiert, um die Bereitstellung von Microservices zu erleichtern, wird Kubernetes mittlerweile als zentrale Plattform für eine Vielzahl von Anwendungen genutzt, die über einfache stateless Webdienste hinausgehen. Die CNCF-Umfrage von Januar 2026 zeigt, dass 82 % der \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003e -Nutzer Kubernetes in der Produktion einsetzen, während 66 % der Organisationen, die generative KI-Modelle betreiben, Kubernetes für Inferenzlasten nutzen.\u003c/p\u003e\n\u003cp\u003eDie Diskussion hat sich von stateless Webanwendungen hin zu komplexen Aufgaben wie verteiltem Datenverarbeiten, Modelltraining und der Nutzung autonomer KI-Agenten verschoben. Diese Entwicklung ist nicht nur eine Evolution, sondern eine notwendige Konvergenz, die durch die Realität angetrieben wird, dass die Ausführung dieser verschiedenen Aufgaben auf separater Infrastruktur die betriebliche Komplexität erhöht. Kubernetes bietet eine einheitliche Grundlage, die diese Herausforderungen adressiert.\u003c/p\u003e\n\u003cp\u003eDie Entwicklung von Kubernetes kann in drei Hauptphasen unterteilt werden:\u003c/p\u003e\n\u003col\u003e\n\u003cli\u003e\u003cstrong\u003eMicroservices-Ära (2015–2020)\u003c/strong\u003e: Fokus auf robuste stateless Dienste und Multi-Tenant-Plattformen.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eDaten- und GenAI-Ära (2020–2024)\u003c/strong\u003e: Einführung von verteilter Datenverarbeitung und GPU-intensivem Training.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eAgentic-Ära (2025+)\u003c/strong\u003e: Verschiebung der Arbeitslasten von API-basierten Anfragen hin zu langlaufenden Denkprozessen.\u003c/li\u003e\n\u003c/ol\u003e\n\u003cp\u003eKubernetes hat sich als die Plattform etabliert, auf der Datenverarbeitung und maschinelles Lernen zusammenkommen. Die Fähigkeit, ETL-Prozesse und burstartige Arbeitslasten von hunderten bis zu tausenden von Kernen innerhalb weniger Minuten zu skalieren, ist entscheidend. Laut dem Data on Kubernetes Community Report 2024 führen nahezu 50 % der Organisationen über 50 % ihrer Datenlasten in der Produktion auf Kubernetes aus.\u003c/p\u003e\n\u003cp\u003eApache Spark bleibt der Standard für groß angelegte Datenverarbeitung. Der Kubeflow Spark Operator ermöglicht eine deklarative Verwaltung von Spark innerhalb von Kubernetes, was es Organisationen erlaubt, Spark in großem Maßstab zu betreiben. Dies umfasst die Vorbereitung von Petabytes an Trainingsdaten und die Auslösung nachgelagerter Trainingsjobs, alles orchestriert über native Kubernetes-Primitiven.\u003c/p\u003e\n\u003cp\u003eDie Orchestrierung von Arbeitsabläufen wird immer wichtiger, insbesondere wenn es darum geht, große Mengen an Trainingsdaten und Modelle effizient zu verwalten. Kubeflow Pipelines und Argo Workflows bieten Werkzeuge, um komplexe ML-Pipelines zu erstellen, die von der Datenvorverarbeitung bis zur Modellbereitstellung reichen.\u003c/p\u003e\n\u003cp\u003eEin zentrales Problem bei verteiltem Training ist die Ressourcenkontrolle. Gang Scheduling, unterstützt durch Projekte wie Volcano und Apache Yunikorn, sorgt dafür, dass Trainingsjobs erst gestartet werden, wenn alle angeforderten Ressourcen verfügbar sind. Kueue wird als Standard für das Management von Batch-Arbeitslasten auf Kubernetes angesehen, während JobSet eine native API für die Verwaltung verteilter Jobgruppen bereitstellt.\u003c/p\u003e\n\u003cp\u003eNach dem Training erfordert das Bereitstellen von Vorhersagen eine andere Herangehensweise. Während das Training batchbasiert und GPU-intensiv ist, muss die Inferenz latenzsensitiv und kosteneffizient sein. Technologien wie vLLM und SGLang haben sich als Standards für hochdurchsatzfähige Inferenzdienste etabliert, während KServe eine standardisierte Modellbereitstellungsschicht mit Funktionen wie Autoskalierung und Versionsverwaltung bietet.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Konvergenz von Datenverarbeitung, Modelltraining und Inferenz auf Kubernetes führt zu einer signifikanten Reduktion der betrieblichen Komplexität. Die Verwendung von Gang Scheduling und Kueue zur Ressourcenkontrolle verbessert die Effizienz und reduziert Kosten, während moderne Orchestrierungstools wie Kubeflow Pipelines und Argo Workflows die Automatisierung und Nachverfolgbarkeit von ML-Prozessen fördern.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eKubernetes wird zunehmend zur zentralen Plattform für KI-Workloads, die eine effiziente und skalierbare Infrastruktur für moderne Datenverarbeitungs- und KI-Anwendungen bietet. Die zukünftige Entwicklung wird voraussichtlich noch tiefere Integrationen und Optimierungen in der Verwaltung autonomer KI-Agenten und komplexer Datenpipelines mit sich bringen.\u003c/p\u003e\n",
      "summary": "TL;DR Kubernetes hat sich von einer Plattform für stateless Webanwendungen zu einer zentralen Infrastruktur für die Ausführung von KI-Workloads gewandelt. 66 % der Organisationen, die generative KI-Modelle hosten, nutzen Kubernetes für ihre Inferenzlasten. Die Konvergenz von Datenverarbeitung, Modelltraining und Inferenz auf Kubernetes vereinfacht die Betriebsabläufe und ermöglicht eine effiziente Ressourcennutzung.\nHauptinhalt Die Entwicklung von Kubernetes über das letzte Jahrzehnt hat eine fundamentale Transformation durchlaufen. Ursprünglich konzipiert, um die Bereitstellung von Microservices zu erleichtern, wird Kubernetes mittlerweile als zentrale Plattform für eine Vielzahl von Anwendungen genutzt, die über einfache stateless Webdienste hinausgehen. Die CNCF-Umfrage von Januar 2026 zeigt, dass 82 % der Container -Nutzer Kubernetes in der Produktion einsetzen, während 66 % der Organisationen, die generative KI-Modelle betreiben, Kubernetes für Inferenzlasten nutzen.\n",
      "image": "https://ayedo.de/the-great-migration-why-every-ai-platform-is-converging-on-kubernetes.png",
      "date_published": "2026-03-05T12:00:00Z",
      "date_modified": "2026-03-05T12:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubernetes","ai-platforms","generative-ai","container-orchestration"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/ospology-day-cloud-native-at-kubecon-cloudnativecon-europe/",
      "url": "https://ayedo.de/news/ospology-day-cloud-native-at-kubecon-cloudnativecon-europe/",
      "title": "OSPOlogy Tag Cloud Native auf KubeCon + CloudNativeCon Europa",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDas OSPOlogy Day Cloud Native findet am 23. März 2026 in Amsterdam statt und richtet sich an Open Source Manager, die Strategien und Operationen im Cloud-Native-Umfeld entwickeln möchten. Die Veranstaltung bietet Raum für strukturierte Diskussionen und Peer-Mentoring zu aktuellen Herausforderungen in der Open-Source-Verwaltung.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eCloud-Native-Management hat sich in den letzten Jahren rasant weiterentwickelt. Unternehmen erkennen zunehmend, dass eine nachhaltige Einführung von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e und anderen Projekten der Cloud Native Computing Foundation (CNCF) nicht nur durch Konsum, sondern durch gezielte Beiträge zur Open-Source-Community erfolgen muss. Dies umfasst Governance, \u003ca href=\"/compliance/\"\u003eCompliance\u003c/a\u003e und die Förderung einer gesunden Community.\u003c/p\u003e\n\u003cp\u003eDas OSPOlogy Day Cloud Native wird von der CNCF in Zusammenarbeit mit dem TODO Europe Chapter veranstaltet und zielt darauf ab, Open Source Managern zu helfen, ihre Strategien und Abläufe in Cloud-Native-Ökosystemen zu navigieren. Die Veranstaltung fördert den Austausch von Erfahrungen und Best Practices durch strukturierte Diskussionen, kleine Gruppen und Mentoring. Ein besonderes Augenmerk liegt auf der Offenheit der Gespräche, die unter der Chatham House Rule stattfinden, um ehrliche und konstruktive Diskussionen zu ermöglichen.\u003c/p\u003e\n\u003cp\u003eDie Themen, die während der Veranstaltung behandelt werden, spiegeln die aktuellen Herausforderungen wider, mit denen Open Source Management Teams konfrontiert sind. Dazu gehören:\u003c/p\u003e\n\u003cul\u003e\n\u003cli\u003e\u003cstrong\u003eOpen Source Education\u003c/strong\u003e: Der Fokus liegt auf der praktischen Ausbildung neuer Teammitglieder und der Überwindung sozialer und politischer Hürden.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eProjektlebenszyklus und -rückgang\u003c/strong\u003e: Es wird diskutiert, wie frühe Warnsignale erkannt und verantwortungsvoll darauf reagiert werden kann.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eWachstum und Nachhaltigkeit von CNCF-Projekten\u003c/strong\u003e: Die Unterstützung nach der Annahme von Projekten und die Rolle der Endnutzerorganisationen bei der Förderung der Akzeptanz werden erörtert.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eCompliance, Sicherheit und Governance\u003c/strong\u003e: Die Operationalisierung von Lizenzrichtlinien und die Verbesserung der Entscheidungsfindung durch bessere Daten stehen im Mittelpunkt.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eLokale Gemeinschaften in globalen Ökosystemen\u003c/strong\u003e: Es wird untersucht, wie lokale Gruppen gedeihen können und wann ein lokaler Fokus die Wirkung fragmentieren kann.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eSouveränität und Regulierung\u003c/strong\u003e: Die Implikationen der EU-Verordnung und souveräne Cloud-Ansätze im Einklang mit der CNCF-Landschaft werden thematisiert.\u003c/li\u003e\n\u003c/ul\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Veranstaltung bietet eine Plattform, um spezifische technische Herausforderungen in der Open-Source- und Cloud-Native-Entwicklung zu adressieren. Die Diskussionen über Governance und \u003ca href=\"/compliance/\"\u003eCompliance\u003c/a\u003e sind besonders relevant für Unternehmen, die sicherstellen möchten, dass ihre Open-Source-Projekte den regulatorischen Anforderungen entsprechen und gleichzeitig die Community-Engagement fördern. Der Austausch über Projektlebenszyklen und die Unterstützung nach der Annahme von Projekten kann entscheidend für die langfristige Nachhaltigkeit und den Erfolg von \u003ca href=\"/kubernetes/\"\u003eCloud-Native\u003c/a\u003e -Initiativen sein.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDas OSPOlogy Day Cloud Native bietet eine wertvolle Gelegenheit für Fachleute, sich über aktuelle Herausforderungen und Strategien im Cloud-Native-Umfeld auszutauschen. Die Veranstaltung fördert nicht nur den Wissensaustausch, sondern auch die Entwicklung von Best Practices, die für die Zukunft der Open-Source-Entwicklung entscheidend sind.\u003c/p\u003e\n",
      "summary": "TL;DR Das OSPOlogy Day Cloud Native findet am 23. März 2026 in Amsterdam statt und richtet sich an Open Source Manager, die Strategien und Operationen im Cloud-Native-Umfeld entwickeln möchten. Die Veranstaltung bietet Raum für strukturierte Diskussionen und Peer-Mentoring zu aktuellen Herausforderungen in der Open-Source-Verwaltung.\nHauptinhalt Cloud-Native-Management hat sich in den letzten Jahren rasant weiterentwickelt. Unternehmen erkennen zunehmend, dass eine nachhaltige Einführung von Kubernetes und anderen Projekten der Cloud Native Computing Foundation (CNCF) nicht nur durch Konsum, sondern durch gezielte Beiträge zur Open-Source-Community erfolgen muss. Dies umfasst Governance, Compliance und die Förderung einer gesunden Community.\n",
      "image": "https://ayedo.de/ospology-day-cloud-native-at-kubecon-cloudnativecon-europe.png",
      "date_published": "2026-03-04T12:00:00Z",
      "date_modified": "2026-03-04T12:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","open-source-management","kubecon","ospo","compliance"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/scaling-organizational-structure-with-mesherys-expanding-ecosystem/",
      "url": "https://ayedo.de/news/scaling-organizational-structure-with-mesherys-expanding-ecosystem/",
      "title": "Skalierung der Organisationsstruktur mit Mesherys wachsendem Ökosystem",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eMeshery, ein schnell wachsendes Projekt im \u003ca href=\"/kubernetes/\"\u003eCNCF-Ökosystem\u003c/a\u003e, hat seine Organisationsstruktur überarbeitet, um der steigenden Komplexität und den Beiträgen der Community gerecht zu werden. Die Repositories wurden in zwei separate Organisationen unterteilt: eine für die Kernplattform und eine für Erweiterungen, um Skalierbarkeit, Modularität und Community-Engagement zu fördern.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eMeshery hat sich als eine hochgradig erweiterbare, selbstbedienbare Managementplattform etabliert, die es ermöglicht, verschiedene \u003ca href=\"/kubernetes/\"\u003eCloud-native\u003c/a\u003e Technologien zu integrieren. Angesichts der zunehmenden Anzahl von Integrationen, die mittlerweile über 300 zählen, wurde die Notwendigkeit erkannt, die Repository-Struktur zu optimieren. Die Entscheidung, die Repositories in zwei Organisationen zu partitionieren, zielt darauf ab, die Projektstruktur zu verbessern und die Verwaltung sowie die Skalierbarkeit zu erleichtern.\u003c/p\u003e\n\u003cp\u003eDie Kernorganisation (github.com/meshery) konzentriert sich auf die Wartung und Weiterentwicklung der Hauptplattform, einschließlich kritischer Komponenten wie dem Meshery Operator und MeshSync. Diese Trennung ermöglicht es dem Kernteam, sich auf die Stabilität und die Einhaltung von CNCF-Standards zu konzentrieren, während die Organisation für Erweiterungen (github.com/meshery-extensions) es Community-Mitgliedern ermöglicht, unabhängig an spezifischen Adaptern und Integrationen zu arbeiten.\u003c/p\u003e\n\u003cp\u003eDas neue Governance-Modell sorgt dafür, dass die Kernplattform von den Hauptverantwortlichen verwaltet wird, während die Erweiterungen von der Community initiiert und gepflegt werden. Dies fördert nicht nur eine breitere Beteiligung, sondern ermöglicht auch, dass neue Ideen und Tools in einem geschützten Raum entwickelt werden, bevor sie möglicherweise enger mit der Kernplattform verbunden werden.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Partitionierung in Kern- und Erweiterungsorganisationen hat mehrere technische Implikationen. Zunächst wird die Verwaltung von Berechtigungen und Beitragsprozessen vereinfacht, was die Effizienz der Entwicklung erhöht. Darüber hinaus ermöglicht die klare Trennung von Kern- und Erweiterungsprojekten eine differenzierte Unterstützung und Wartung, wodurch die Benutzer klarere Erwartungen hinsichtlich der Stabilität und der Release-Zyklen haben.\u003c/p\u003e\n\u003cp\u003eDie Modularität der Architektur fördert die Erschließung neuer Integrationen und die Entwicklung spezifischer Lösungen für weniger gängige Cloud-Dienste oder interne Unternehmens-APIs. Dies könnte die Innovationsgeschwindigkeit innerhalb des Ökosystems erheblich steigern.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Überarbeitung der Organisationsstruktur von Meshery stellt einen bedeutenden Schritt in Richtung einer effektiveren Verwaltung und Skalierung des Projekts dar. Durch die Förderung von Community-Beiträgen und die Trennung von Kern- und Erweiterungsprojekten wird Meshery in der Lage sein, seine Position im \u003ca href=\"/kubernetes/\"\u003eCloud-Native-Ökosystem\u003c/a\u003e weiter zu festigen und zu wachsen.\u003c/p\u003e\n",
      "summary": "TL;DR Meshery, ein schnell wachsendes Projekt im CNCF-Ökosystem, hat seine Organisationsstruktur überarbeitet, um der steigenden Komplexität und den Beiträgen der Community gerecht zu werden. Die Repositories wurden in zwei separate Organisationen unterteilt: eine für die Kernplattform und eine für Erweiterungen, um Skalierbarkeit, Modularität und Community-Engagement zu fördern.\nHauptinhalt Meshery hat sich als eine hochgradig erweiterbare, selbstbedienbare Managementplattform etabliert, die es ermöglicht, verschiedene Cloud-native Technologien zu integrieren. Angesichts der zunehmenden Anzahl von Integrationen, die mittlerweile über 300 zählen, wurde die Notwendigkeit erkannt, die Repository-Struktur zu optimieren. Die Entscheidung, die Repositories in zwei Organisationen zu partitionieren, zielt darauf ab, die Projektstruktur zu verbessern und die Verwaltung sowie die Skalierbarkeit zu erleichtern.\n",
      "image": "https://ayedo.de/scaling-organizational-structure-with-mesherys-expanding-ecosystem.png",
      "date_published": "2026-03-04T12:00:00Z",
      "date_modified": "2026-03-04T12:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","meshery","organisationsstruktur","skalierbarkeit","community-engagement"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/announcing-docker-hardened-system-packages/",
      "url": "https://ayedo.de/news/announcing-docker-hardened-system-packages/",
      "title": "Ankündigung von Docker Hardened Systempaketen",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDocker hat die Einführung von Docker Hardened Systempaketen angekündigt, um die Sicherheit in \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003e–Umgebungen zu verbessern. Diese Pakete sind auf einer sicheren Lieferkette aufgebaut und bieten Unterstützung für mehrere Distributionen, wodurch Teams ihre bestehenden Umgebungen beibehalten können, während sie von erweiterten Sicherheitsfunktionen profitieren.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDocker hat seine Sicherheitsstrategie mit der Einführung von Docker Hardened Systempaketen (DHSP) weiterentwickelt. Diese Pakete ergänzen die bereits bestehenden Docker Hardened Images (DHI), die seit Dezember 2025 kostenlos verfügbar sind. Die Philosophie hinter DHI und DHSP ist es, Entwicklern sichere und minimalistische Produktionsumgebungen anzubieten, ohne dass sie dafür bezahlen müssen oder ihre gewohnte Infrastruktur ändern müssen.\u003c/p\u003e\n\u003cp\u003eDie DHSP werden aus einer sicheren Lieferkette erstellt, die eine Quelle, kryptografische Bestätigung und Unterstützung durch Service Level Agreements (SLA) umfasst. Dies bedeutet, dass jedes Paket von Docker gebaut, gepatcht und signiert wird, wodurch eine vollständige Herkunftskette sichergestellt wird. Teams können weiterhin ihre bevorzugten Distributionen wie Alpine oder Debian verwenden und gleichzeitig von den Sicherheitsvorteilen der DHSP profitieren. Dies ermöglicht eine konsistente und ganzheitliche Härtung über verschiedene Umgebungen hinweg.\u003c/p\u003e\n\u003cp\u003eSeit der Einführung von DHI hat sich das Interesse an diesen harten \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003e–Images erheblich gesteigert. Der Katalog umfasst mittlerweile über 2.000 härtete Container-Images, was die Akzeptanz in verschiedenen Unternehmen und Open-Source-Projekten gefördert hat. Beispiele für Unternehmen, die DHI standardisiert haben, sind n8n.io und Medplum, die beide von den Sicherheitsvorteilen und der Kompatibilität mit ihren bestehenden Systemen profitieren.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie DHSP bieten eine Vielzahl technischer Vorteile, die für \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e–Engineers und Cloud-Architekten von Bedeutung sind:\u003c/p\u003e\n\u003cul\u003e\n\u003cli\u003e\u003cstrong\u003eVollständige Herkunftskette\u003c/strong\u003e: Jedes Paket wird von Docker aus dem Quellcode erstellt und kryptografisch signiert, was die Integrität der Software gewährleistet.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eSchnellere Schwachstellenbehebung\u003c/strong\u003e: Schwachstellen werden auf Paketebene behoben und nicht für jedes Image einzeln. Dies ermöglicht eine schnellere und skalierbare Reaktion auf Sicherheitsprobleme.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eErweiterte Garantie für nahezu null CVEs\u003c/strong\u003e: Die DHSP erweitern die nahezu null CVE-Garantie von DHI-Images auf die hinzugefügten Pakete während der Anpassung.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eIntegration in bestehende Pipelines\u003c/strong\u003e: DHI Enterprise-Kunden können die harten Systempakete in ihren eigenen Pipelines nutzen, was die Sicherheitsarchitektur ihrer gesamten Umgebung stärkt.\u003c/li\u003e\n\u003c/ul\u003e\n\u003cp\u003eZusätzlich wird die Zugänglichkeit der DHI durch eine Umbenennung des Katalogs in \u0026ldquo;DHI Community\u0026rdquo; verbessert, was die Suche und Nutzung der Pakete erleichtert.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Einführung von Docker Hardened Systempaketen stellt einen bedeutenden Schritt in Richtung verbesserter Sicherheit in \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003e–Umgebungen dar. Durch die Kombination aus Flexibilität und Sicherheit können Unternehmen ihre bestehenden Systeme optimieren und gleichzeitig ihre Sicherheitsstandards erhöhen. Die kontinuierliche Pflege und Erweiterung des Paketangebots wird die Nutzung von Docker in der Softwareentwicklung weiter fördern.\u003c/p\u003e\n",
      "summary": "TL;DR Docker hat die Einführung von Docker Hardened Systempaketen angekündigt, um die Sicherheit in Container–Umgebungen zu verbessern. Diese Pakete sind auf einer sicheren Lieferkette aufgebaut und bieten Unterstützung für mehrere Distributionen, wodurch Teams ihre bestehenden Umgebungen beibehalten können, während sie von erweiterten Sicherheitsfunktionen profitieren.\nHauptinhalt Docker hat seine Sicherheitsstrategie mit der Einführung von Docker Hardened Systempaketen (DHSP) weiterentwickelt. Diese Pakete ergänzen die bereits bestehenden Docker Hardened Images (DHI), die seit Dezember 2025 kostenlos verfügbar sind. Die Philosophie hinter DHI und DHSP ist es, Entwicklern sichere und minimalistische Produktionsumgebungen anzubieten, ohne dass sie dafür bezahlen müssen oder ihre gewohnte Infrastruktur ändern müssen.\n",
      "image": "https://ayedo.de/announcing-docker-hardened-system-packages.png",
      "date_published": "2026-03-03T20:30:00Z",
      "date_modified": "2026-03-03T20:30:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","hardened-systems","container-security","secure-delivery","devops","production-environments"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/how-to-get-the-most-out-of-kubecon-cloudnativecon-europe-2026/",
      "url": "https://ayedo.de/news/how-to-get-the-most-out-of-kubecon-cloudnativecon-europe-2026/",
      "title": "So nutzen Sie KubeCon + CloudNativeCon Europa 2026 optimal aus",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eKubeCon + CloudNativeCon Europe 2026 bietet eine umfassende Plattform für Fachleute im \u003ca href=\"/kubernetes/\"\u003eCloud-Native-\u003c/a\u003e und \u003ca href=\"/kubernetes/\"\u003eDevOps-Bereich\u003c/a\u003e. Die Veranstaltung umfasst verschiedene Formate, darunter Co-Located Events, Keynotes, Breakout-Sessions sowie Networking-Möglichkeiten, die eine gezielte Planung und Nutzung der Zeit vor Ort erfordern.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eKubeCon + CloudNativeCon Europe 2026 findet in Amsterdam statt und bietet eine Vielzahl von Möglichkeiten für Teilnehmer, sich mit aktuellen Trends und Technologien im \u003ca href=\"/kubernetes/\"\u003eCloud-Native-Bereich\u003c/a\u003e auseinanderzusetzen. Die Konferenz erstreckt sich über eine Woche, wobei der Montag für Co-Located Events reserviert ist. Diese speziellen Veranstaltungen, wie Platform Engineering Day und Kubernetes on Edge Day, ermöglichen tiefere Einblicke in spezifische Themen und erfordern einen All-Access-Pass.\u003c/p\u003e\n\u003cp\u003eAn jedem Konferenztag beginnen die Keynotes, die in einem großen Veranstaltungsraum stattfinden und alle Teilnehmer zusammenbringen. Diese Eröffnungssitzungen behandeln den aktuellen Stand der Cloud-Native-Technologien, wichtige Branchenentwicklungen und bedeutende Ankündigungen der Community. Nach den Keynotes folgt eine Vielzahl an parallelen Breakout-Sessions, die sich an verschiedene Erfahrungsstufen richten und sowohl technische Vorträge als auch Fallstudien aus der Praxis umfassen.\u003c/p\u003e\n\u003cp\u003eEin zentraler Bereich der Konferenz ist die Solution Showcase, in der Anbieter ihre Produkte präsentieren, sowie der Project Pavilion, der sich auf CNCF- und community-geführte Open-Source-Projekte konzentriert. Diese Bereiche sind besonders wertvoll für Teilnehmer, die neue Technologien evaluieren oder direkt mit Projektmitarbeitern in Kontakt treten möchten.\u003c/p\u003e\n\u003cp\u003eZusätzlich bietet die Veranstaltung ContribFest, eine Gelegenheit für Interessierte, sich in Open-Source-Projekte einzubringen. Diese Sessions sind darauf ausgelegt, neue Mitwirkende in die Projekte einzuführen und praktische Unterstützung von erfahrenen Beitragsleistenden zu bieten.\u003c/p\u003e\n\u003cp\u003eEin Networking Nook steht bereit, um informelle Gespräche zu fördern und eine entspannte Atmosphäre für spontane Begegnungen zu schaffen. Für gezielte Unterstützung bieten Peer Group Mentorship-Sessions kleine Gruppen mit erfahrenen Mentoren an, die bei technischen Fragen oder Karriereüberlegungen helfen können.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Struktur der Konferenz ermöglicht es den Teilnehmern, sich gezielt auf relevante Themen zu konzentrieren und wertvolle Kontakte zu knüpfen. Die Vielfalt an Formaten fördert den Austausch von Wissen und Erfahrungen, was für die Weiterentwicklung von Cloud-Native-Technologien und Open-Source-Projekten von Bedeutung ist. Die Möglichkeit, direkt mit Produktanbietern und Projektmitarbeitern zu sprechen, kann entscheidend für die Auswahl von Technologien und Tools sein.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie KubeCon + CloudNativeCon Europe 2026 bietet eine umfassende Plattform für Networking und Wissensaustausch im Cloud-Native-Bereich. Eine gezielte Planung und die Nutzung der verschiedenen Angebote sind entscheidend, um das Beste aus der Konferenz herauszuholen.\u003c/p\u003e\n",
      "summary": "TL;DR KubeCon + CloudNativeCon Europe 2026 bietet eine umfassende Plattform für Fachleute im Cloud-Native- und DevOps-Bereich. Die Veranstaltung umfasst verschiedene Formate, darunter Co-Located Events, Keynotes, Breakout-Sessions sowie Networking-Möglichkeiten, die eine gezielte Planung und Nutzung der Zeit vor Ort erfordern.\nHauptinhalt KubeCon + CloudNativeCon Europe 2026 findet in Amsterdam statt und bietet eine Vielzahl von Möglichkeiten für Teilnehmer, sich mit aktuellen Trends und Technologien im Cloud-Native-Bereich auseinanderzusetzen. Die Konferenz erstreckt sich über eine Woche, wobei der Montag für Co-Located Events reserviert ist. Diese speziellen Veranstaltungen, wie Platform Engineering Day und Kubernetes on Edge Day, ermöglichen tiefere Einblicke in spezifische Themen und erfordern einen All-Access-Pass.\n",
      "image": "https://ayedo.de/how-to-get-the-most-out-of-kubecon-cloudnativecon-europe-2026.png",
      "date_published": "2026-03-03T12:00:00Z",
      "date_modified": "2026-03-03T12:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubecon","devops","networking","keynotes"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-kubernetes-on-edge-day/",
      "url": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-kubernetes-on-edge-day/",
      "title": "KubeCon + CloudNativeCon Europa 2026 Ko-lokales Event Deep Dive: Kubernetes am Edge Tag",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eKubernetes on Edge Day wird 2026 im Rahmen von KubeCon + CloudNativeCon Europa stattfinden und fokussiert sich auf die Herausforderungen und Möglichkeiten von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e in verteilten, ressourcenbeschränkten Umgebungen. Die Veranstaltung richtet sich an Fachleute, die Kubernetes außerhalb traditioneller Rechenzentren und öffentlicher Clouds einsetzen, und bietet praxisnahe Einblicke in aktuelle Edge-Computing-Anwendungen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eKubernetes on Edge Day kehrt 2026 zurück und thematisiert die Schnittstelle zwischen \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Technologien und den Anforderungen, die in verteilten und oft unvorhersehbaren Umgebungen auftreten. Seit seiner erstmaligen Einführung im Jahr 2022 hat sich die Veranstaltung kontinuierlich weiterentwickelt, um den wachsenden Einsatz von Kubernetes außerhalb traditioneller Infrastrukturen zu reflektieren. In einer Zeit, in der Unternehmen mit der Herausforderung konfrontiert sind, moderne Workloads wie Künstliche Intelligenz und maschinelles Lernen auf veralteter Hardware und in dezentralen Umgebungen zu unterstützen, bietet Edge Day eine Plattform zum Austausch über die Anpassungsfähigkeit von Kubernetes.\u003c/p\u003e\n\u003cp\u003eDie Veranstaltung richtet sich an ein breites Publikum, darunter Plattformingenieure, Entwickler, Betreiber, Studenten und Geschäftsleiter, die mit verteilten Systemen in verschiedenen Branchen arbeiten, wie Einzelhandel, Fertigung und Mobilität. Die Agenda ist vielfältig und umfasst sowohl Einsteiger- als auch Fortgeschrittenensitzungen, was sie für Teilnehmer mit unterschiedlichen Erfahrungsgraden zugänglich macht.\u003c/p\u003e\n\u003cp\u003eIn diesem Jahr wird ein bewusster Fokus auf die Kernaspekte des Edge-Computing gelegt. Die Themen reichen von der Anwendung von Künstlicher Intelligenz am Edge über Telekommunikationsbereitstellungen bis hin zur Rolle von Daten in Kubernetes und der Bedeutung von Observability für verteilte Systeme. Die Sessions sind darauf ausgelegt, eine kohärente Erzählung über die Entwicklung von Kubernetes am Edge zu präsentieren.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Veranstaltung bietet eine Plattform für den Austausch über die praktischen Herausforderungen und Lösungen, die beim Betrieb von Kubernetes im Edge-Computing auftreten. Die Diskussionen werden sich auf reale Implementierungen konzentrieren, die alltägliche Erfahrungen für Millionen von Nutzern ermöglichen. Die Mischung aus Vorträgen, offenen Diskussionen und praktischen Wissensaustauschen fördert die Interaktion zwischen den Teilnehmern und den Referenten, was den Austausch von Best Practices und Erfahrungen unterstützt.\u003c/p\u003e\n\u003cp\u003eFür Teilnehmer, die neu im Bereich sind, wird empfohlen, sich im Vorfeld Gedanken über die Nutzung von Kubernetes in ihrer Organisation zu machen, insbesondere in dezentralen Umgebungen. Dies erleichtert die aktive Teilnahme an den Diskussionen und die Vertiefung spezifischer Themen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eKubernetes on Edge Day 2026 verspricht, eine wertvolle Gelegenheit für Fachleute zu sein, die sich mit den Herausforderungen und Chancen des Edge-Computing auseinandersetzen. Die Veranstaltung fördert den Austausch von Wissen und Erfahrungen in einer sich schnell entwickelnden Technologielandschaft. Die Teilnehmer sind eingeladen, sich zu registrieren und Teil dieser wichtigen Diskussion zu werden.\u003c/p\u003e\n",
      "summary": "TL;DR Kubernetes on Edge Day wird 2026 im Rahmen von KubeCon + CloudNativeCon Europa stattfinden und fokussiert sich auf die Herausforderungen und Möglichkeiten von Kubernetes in verteilten, ressourcenbeschränkten Umgebungen. Die Veranstaltung richtet sich an Fachleute, die Kubernetes außerhalb traditioneller Rechenzentren und öffentlicher Clouds einsetzen, und bietet praxisnahe Einblicke in aktuelle Edge-Computing-Anwendungen.\nHauptinhalt Kubernetes on Edge Day kehrt 2026 zurück und thematisiert die Schnittstelle zwischen cloud-nativen Technologien und den Anforderungen, die in verteilten und oft unvorhersehbaren Umgebungen auftreten. Seit seiner erstmaligen Einführung im Jahr 2022 hat sich die Veranstaltung kontinuierlich weiterentwickelt, um den wachsenden Einsatz von Kubernetes außerhalb traditioneller Infrastrukturen zu reflektieren. In einer Zeit, in der Unternehmen mit der Herausforderung konfrontiert sind, moderne Workloads wie Künstliche Intelligenz und maschinelles Lernen auf veralteter Hardware und in dezentralen Umgebungen zu unterstützen, bietet Edge Day eine Plattform zum Austausch über die Anpassungsfähigkeit von Kubernetes.\n",
      "image": "https://ayedo.de/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-kubernetes-on-edge-day.png",
      "date_published": "2026-03-02T12:00:00Z",
      "date_modified": "2026-03-02T12:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kubernetes","edge-computing","distributed-systems","observability"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/before-you-migrate-five-surprising-ingress-nginx-behaviors-you-need-to-know/",
      "url": "https://ayedo.de/news/before-you-migrate-five-surprising-ingress-nginx-behaviors-you-need-to-know/",
      "title": "Bevor Sie migrieren: Fünf überraschende Ingress-NGINX-Verhalten, die Sie kennen sollten",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eIngress-NGINX wird im März 2026 eingestellt, was eine Migration zu anderen Lösungen erforderlich macht. Dabei ist es wichtig, die spezifischen Verhaltensweisen und Eigenheiten von Ingress-NGINX zu verstehen, um Ausfälle während der Migration zu vermeiden. Der Artikel beleuchtet fünf entscheidende Verhaltensweisen von Ingress-NGINX und bietet Hinweise zur Anpassung bei der Verwendung des \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eIngress-NGINX ist ein weit verbreiteter Ingress-Controller innerhalb der \u003ca href=\"/kubernetes/\"\u003eKubernetes-Community\u003c/a\u003e, der jedoch einige unerwartete Verhaltensweisen aufweist, die bei der Migration zu berücksichtigen sind. Die Migration zu Alternativen wie dem \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e erfordert ein tiefes Verständnis dieser Eigenheiten, um sicherzustellen, dass bestehende Funktionalitäten nicht verloren gehen.\u003c/p\u003e\n\u003cp\u003eEin zentrales Verhalten von Ingress-NGINX ist, dass reguläre Ausdrücke (Regex) für die Pfadübereinstimmung als Präfix und fallunempfindlich interpretiert werden. Beispielsweise würde ein regulärer Ausdruck, der für drei Großbuchstaben konzipiert ist, nicht nur diese spezifischen Pfade ansprechen, sondern auch alle Anfragen, die mit beliebigen drei Buchstaben beginnen. Dies kann zu unerwarteten Ergebnissen führen, wenn Clients Anfragen an Pfade senden, die nicht den beabsichtigten Kriterien entsprechen. Im Gegensatz dazu bieten [Gateway API]-Implementierungen, wie zum Beispiel die auf Envoy basierenden, oft eine vollständige fallunempfindliche Übereinstimmung, was zu einem anderen Verhalten führen kann.\u003c/p\u003e\n\u003cp\u003eEin weiteres wichtiges Verhalten betrifft die Annotation \u003ccode\u003enginx.ingress.kubernetes.io/use-regex\u003c/code\u003e, die sich auf alle Pfade eines Hosts über alle Ingress-NGINX-Ressourcen hinweg auswirkt. Ein typischer Fehler wäre, eine falsche Pfadangabe zu machen, was dazu führen könnte, dass Anfragen nicht wie gewünscht geroutet werden. Dies kann zu 404-Fehlern führen und den Zugriff auf kritische Dienste beeinträchtigen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Migration von Ingress-NGINX zu \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e erfordert sorgfältige Anpassungen. Um die spezifischen Regex-Matching-Verhalten von Ingress-NGINX zu replizieren, sollten Entwickler sicherstellen, dass sie die richtigen Regex-Parameter verwenden, um die fallunempfindliche Übereinstimmung zu erreichen. Beispielsweise kann das Hinzufügen des Flags \u003ccode\u003e(?i)\u003c/code\u003e in Gateway API-Implementierungen helfen, die fallunempfindliche Übereinstimmung zu erzielen, die in Ingress-NGINX standardmäßig gegeben ist.\u003c/p\u003e\n\u003cp\u003eEin weiterer Aspekt ist, dass bei der Migration von Ingress-NGINX zu Gateway API die Implementierung und die genauen Spezifikationen des jeweiligen Gateway API-Controllers berücksichtigt werden müssen. Unterschiedliche Implementierungen können variierende Verhaltensweisen aufweisen, was die Notwendigkeit einer genauen Überprüfung und Anpassung der Routing-Logik unterstreicht.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie bevorstehende Einstellung von Ingress-NGINX erfordert eine proaktive Planung und Anpassung der Infrastruktur. Die Berücksichtigung der spezifischen Eigenheiten von Ingress-NGINX ist entscheidend, um einen reibungslosen Übergang zu gewährleisten und Ausfälle zu vermeiden. IT-Entscheider und \u003ca href=\"/kubernetes/\"\u003eDevOps-Engineers\u003c/a\u003e sollten sich intensiv mit den neuen Technologien und deren Implementierungsdetails auseinandersetzen, um die Kontinuität der Dienste sicherzustellen.\u003c/p\u003e\n",
      "summary": "TL;DR Ingress-NGINX wird im März 2026 eingestellt, was eine Migration zu anderen Lösungen erforderlich macht. Dabei ist es wichtig, die spezifischen Verhaltensweisen und Eigenheiten von Ingress-NGINX zu verstehen, um Ausfälle während der Migration zu vermeiden. Der Artikel beleuchtet fünf entscheidende Verhaltensweisen von Ingress-NGINX und bietet Hinweise zur Anpassung bei der Verwendung des Gateway API.\nHauptinhalt Ingress-NGINX ist ein weit verbreiteter Ingress-Controller innerhalb der Kubernetes-Community, der jedoch einige unerwartete Verhaltensweisen aufweist, die bei der Migration zu berücksichtigen sind. Die Migration zu Alternativen wie dem Gateway API erfordert ein tiefes Verständnis dieser Eigenheiten, um sicherzustellen, dass bestehende Funktionalitäten nicht verloren gehen.\n",
      "image": "https://ayedo.de/before-you-migrate-five-surprising-ingress-nginx-behaviors-you-need-to-know.png",
      "date_published": "2026-02-27T15:30:00Z",
      "date_modified": "2026-02-27T15:30:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","ingress-nginx","migration","gateway-api","regex","devops"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-backstagecon/",
      "url": "https://ayedo.de/news/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-backstagecon/",
      "title": "KubeCon + CloudNativeCon Europa 2026 Begleitveranstaltung Deep Dive: BackstageCon",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eBackstageCon 2026 fokussiert sich auf die Integration von KI in Plattformengineering und interne Entwicklerportale, um die Effizienz und Skalierbarkeit in \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Umgebungen zu verbessern. Die Veranstaltung bietet praxisnahe Einblicke für Teams, die Backstage in Produktion betreiben, und thematisiert die Herausforderungen und Lösungen im Zusammenhang mit der Verwaltung von KI-Workflows und Softwarekatalogen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eBackstageCon, die erste Konferenz, die sich ausschließlich dem Backstage-Ökosystem widmet, wurde 2022 ins Leben gerufen und hat sich seither als zentrale Plattform für Anwender und Mitwirkende des Open-Source-Entwicklerportals etabliert, das ursprünglich von Spotify entwickelt wurde. Mit dem zunehmenden Einsatz von \u003ca href=\"/kubernetes/\"\u003eCloud-Native-Technologien\u003c/a\u003e wird die Bedeutung von Plattformengineering und internen Entwicklerportalen immer deutlicher. Diese Tools sind entscheidend, um die Komplexität von Kubernetes, Microservices und verteilten Systemen zu bewältigen.\u003c/p\u003e\n\u003cp\u003eEin zentrales Thema der diesjährigen Konferenz ist die Wechselwirkung zwischen cloud-nativer Adoption und KI-unterstützter Softwarebereitstellung. Viele Entwicklungsteams stehen vor der Herausforderung, Code schneller zu generieren und bereitzustellen, als sie die Verantwortung, Dokumentation, Sicherheit und operationale Klarheit aufrechterhalten können. BackstageCon bietet einen Raum, um gemeinsame Muster zu entwickeln, die es ermöglichen, das Portal und den Katalog als vertrauenswürdige Kontextschicht zu etablieren, die von KI-Copiloten und -Agenten sicher genutzt werden kann.\u003c/p\u003e\n\u003cp\u003eDie Veranstaltung richtet sich besonders an Plattformengineering-Teams und interne Entwicklerplattform-Teams, die Backstage in Produktionsumgebungen betreiben. Diese Teilnehmer profitieren von praktischen Mustern zur Skalierung von Backstage in großen Organisationen, einschließlich Katalogstruktur, Governance und Plugin-Ökosystemen. Zudem werden reale Fallstudien und betriebliche Lektionen präsentiert, die den Teilnehmern helfen, ihre Implementierungen zu optimieren.\u003c/p\u003e\n\u003cp\u003eIn diesem Jahr liegt ein verstärkter Fokus auf der Integration von KI in die Plattformengineering-Praxis. Sessions wie „Agentic Backstage: How to Manage an AI Software Catalog“ und „Modern AI IDP: The Backstage + Kubeflow Way“ zeigen, wie KI-Workflows, Modelle und Agenten in interne Entwicklerplattformen integriert werden können. Die Themen Entwicklererfahrung und Ökosystemreife werden ebenfalls vertieft, wobei der Schwerpunkt auf der Entwicklung eines gesunden Backstage-Plugin-Ökosystems liegt.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Konferenz beginnt mit einführenden Bemerkungen und Keynotes, die sich mit der einheitlichen Entwicklererfahrung und der Philosophie von Backstage auseinandersetzen. Der Vormittag umfasst Lightning Talks und tiefere technische Diskussionen über die Skalierung von Backstage sowie die Verwaltung von KI-orientierten Softwarekatalogen. Nach dem Mittagessen stehen fortgeschrittene technische Sessions auf dem Programm, die sich mit Observability, Runtime-Plugins und Plattform-Tools befassen.\u003c/p\u003e\n\u003cp\u003eFür eine optimale Teilnahme wird empfohlen, über grundlegende Kenntnisse von Backstage, Plattformengineering und cloud-nativen Technologien wie \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e, CI/CD und Microservices zu verfügen. Ein Verständnis der Operationalisierung von KI- und Machine-Learning-Workloads ist besonders für die KI-fokussierten Sessions von Vorteil.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eBackstageCon 2026 bietet eine wertvolle Plattform für den Austausch von Best Practices und Erfahrungen im Bereich Plattformengineering und KI-Integration. Die Veranstaltung fördert die Zusammenarbeit innerhalb der Community und stärkt die Entwicklung eines nachhaltigen Ökosystems in einer zunehmend komplexen cloud-nativen und KI-gesteuerten Welt.\u003c/p\u003e\n",
      "summary": "TL;DR BackstageCon 2026 fokussiert sich auf die Integration von KI in Plattformengineering und interne Entwicklerportale, um die Effizienz und Skalierbarkeit in cloud-nativen Umgebungen zu verbessern. Die Veranstaltung bietet praxisnahe Einblicke für Teams, die Backstage in Produktion betreiben, und thematisiert die Herausforderungen und Lösungen im Zusammenhang mit der Verwaltung von KI-Workflows und Softwarekatalogen.\nHauptinhalt BackstageCon, die erste Konferenz, die sich ausschließlich dem Backstage-Ökosystem widmet, wurde 2022 ins Leben gerufen und hat sich seither als zentrale Plattform für Anwender und Mitwirkende des Open-Source-Entwicklerportals etabliert, das ursprünglich von Spotify entwickelt wurde. Mit dem zunehmenden Einsatz von Cloud-Native-Technologien wird die Bedeutung von Plattformengineering und internen Entwicklerportalen immer deutlicher. Diese Tools sind entscheidend, um die Komplexität von Kubernetes, Microservices und verteilten Systemen zu bewältigen.\n",
      "image": "https://ayedo.de/kubecon-cloudnativecon-europe-2026-co-located-event-deep-dive-backstagecon.png",
      "date_published": "2026-02-27T14:55:54Z",
      "date_modified": "2026-02-27T14:55:54Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","backstagecon","plattformengineering","ki-integration","softwarekatalog"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/cncf-joins-2026-google-summer-of-code-as-mentoring-organization-calling-all-contributors/",
      "url": "https://ayedo.de/news/cncf-joins-2026-google-summer-of-code-as-mentoring-organization-calling-all-contributors/",
      "title": "CNCF tritt 2026 Google Summer of Code als Mentoring-Organisation bei: Alle Mitwirkenden sind gefragt!",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Cloud Native Computing Foundation (CNCF) ist erneut als Mentoring-Organisation für den Google Summer of Code (GSoC) 2026 ausgewählt worden. Interessierte Entwickler sind eingeladen, bis zum 15. März 2026 Projektideen zu diskutieren und Vorschläge einzureichen, um in den Bereichen \u003ca href=\"/kubernetes/\"\u003ecloud-native\u003c/a\u003e Technologien und Open Source aktiv zu werden.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie CNCF hat ihre Teilnahme am Google Summer of Code (GSoC) 2026 bekannt gegeben, nachdem sie bereits seit 2017 als Mentoring-Organisation fungiert. GSoC ist ein globales Programm, das neuen Mitwirkenden die Möglichkeit bietet, durch strukturierte, betreute Projekte in Open-Source-Communities einzutreten. Jedes Jahr arbeiten ausgewählte Teilnehmer eng mit erfahrenen Maintainers zusammen, um technische Beiträge zu entwerfen, zu entwickeln und bereitzustellen. Für viele ist GSoC der Start einer langfristigen Reise in die Welt des Open Source.\u003c/p\u003e\n\u003cp\u003eDie Teilnahme der CNCF an GSoC unterstreicht das Engagement, nachhaltige Gemeinschaften im Bereich \u003ca href=\"/kubernetes/\"\u003ecloud-nativer\u003c/a\u003e Technologien zu fördern. Open Source gedeiht, wenn neue Mitwirkende sich willkommen, unterstützt und befähigt fühlen, einen Einfluss auszuüben. Durch GSoC haben die Teilnehmer die Möglichkeit, sich intensiv mit den Projekten der CNCF auseinanderzusetzen und direkt mit den Maintainers zu kooperieren.\u003c/p\u003e\n\u003cp\u003eEin wichtiger Zeitraum für potenzielle Mitwirkende erstreckt sich bis zum 15. März 2026. In dieser Phase sind die Kandidaten aufgefordert, aktiv mit den Mentoring-Organisationen zu interagieren, potenzielle Projektideen zu diskutieren und ihre Vorschläge zu entwerfen. Dies ist eine entscheidende Zeit, um Kontakte zu Projektgemeinschaften zu knüpfen, gezielte Fragen zu stellen und Ideen in Zusammenarbeit mit Mentoren zu verfeinern.\u003c/p\u003e\n\u003cp\u003eWichtige Termine im Rahmen des Programms sind:\u003c/p\u003e\n\u003cul\u003e\n\u003cli\u003e\u003cstrong\u003e19. Februar – 15. März 2026\u003c/strong\u003e: Diskussion von Ideen mit Mentoring-Organisationen\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003e16. März 2026\u003c/strong\u003e: Eröffnung des Bewerbungszeitraums für GSoC-Mitwirkende\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003e31. März 2026\u003c/strong\u003e: Schließung des Bewerbungszeitraums\u003c/li\u003e\n\u003c/ul\u003e\n\u003cp\u003ePotenzielle Mitwirkende sollten die offizielle GSoC-Website regelmäßig besuchen, um die aktuellsten Informationen zu Fristen und Programmdetails zu erhalten. Es wird empfohlen, die offiziellen Richtlinien und den Zeitplan sorgfältig zu prüfen, um die Anforderungen und Fristen für die Einreichung zu erfüllen.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie CNCF beherbergt eine Vielzahl von Open-Source-Projekten in Bereichen wie Plattformengineering, Observability, Runtime, Sicherheit und \u003ca href=\"/kubernetes/\"\u003ecloud-native\u003c/a\u003e Infrastruktur. Die Projekte im Rahmen von GSoC decken ein breites Spektrum technischer Domänen ab, und die Mitwirkenden werden mit Mentoren zusammengebracht, die sie durch strukturierte Meilensteine und regelmäßige Feedbackzyklen führen. Dies fördert nicht nur die technische Entwicklung der Teilnehmer, sondern stärkt auch die gesamte Open-Source-Community.\u003c/p\u003e\n\u003cp\u003eFür Projekt-Maintainers, die während des GSoC 2026-Zyklus Mentoring in Betracht ziehen, besteht die Möglichkeit, Ideen über ein bereitgestelltes Template auf GitHub einzureichen. Dies fördert den Austausch von Wissen und Erfahrungen und trägt zur Stärkung der \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Community bei.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Teilnahme der CNCF am GSoC 2026 bietet eine wertvolle Gelegenheit für Entwickler, ihre Fähigkeiten im Bereich Open Source zu vertiefen und aktiv zur \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Landschaft beizutragen. Interessierte sind eingeladen, frühzeitig mit den Projektgemeinschaften in Kontakt zu treten und ihre Ideen einzubringen.\u003c/p\u003e\n",
      "summary": "TL;DR Die Cloud Native Computing Foundation (CNCF) ist erneut als Mentoring-Organisation für den Google Summer of Code (GSoC) 2026 ausgewählt worden. Interessierte Entwickler sind eingeladen, bis zum 15. März 2026 Projektideen zu diskutieren und Vorschläge einzureichen, um in den Bereichen cloud-native Technologien und Open Source aktiv zu werden.\nHauptinhalt Die CNCF hat ihre Teilnahme am Google Summer of Code (GSoC) 2026 bekannt gegeben, nachdem sie bereits seit 2017 als Mentoring-Organisation fungiert. GSoC ist ein globales Programm, das neuen Mitwirkenden die Möglichkeit bietet, durch strukturierte, betreute Projekte in Open-Source-Communities einzutreten. Jedes Jahr arbeiten ausgewählte Teilnehmer eng mit erfahrenen Maintainers zusammen, um technische Beiträge zu entwerfen, zu entwickeln und bereitzustellen. Für viele ist GSoC der Start einer langfristigen Reise in die Welt des Open Source.\n",
      "image": "https://ayedo.de/cncf-joins-2026-google-summer-of-code-as-mentoring-organization-calling-all-contributors.png",
      "date_published": "2026-02-26T17:00:00Z",
      "date_modified": "2026-02-26T17:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","google-summer-of-code","mentoring-organisation","entwickler","projektideen"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/docker-model-runner-brings-vllm-to-macos-with-apple-silicon/",
      "url": "https://ayedo.de/news/docker-model-runner-brings-vllm-to-macos-with-apple-silicon/",
      "title": "Docker Model Runner bringt vLLM nach macOS mit Apple Silicon",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDocker Model Runner unterstützt nun vllm-metal, ein neues Backend, das die Ausführung von vLLM-Inferenz auf macOS mit Apple Silicon ermöglicht. Diese Erweiterung nutzt die Metal-GPU-Technologie von Apple, um MLX-Modelle effizient zu bedienen und bietet eine einheitliche API für \u003ca href=\"https://openai.com\"\u003eOpenAI-kompatible Anwendungen\u003c/a\u003e.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDocker hat vllm-metal entwickelt, um die Nutzung des vLLM-Inferenz-Engines auf macOS mit M-Serie-Chips zu ermöglichen. Dieses neue Backend integriert sich nahtlos in die bestehende \u003ca href=\"/kubernetes/\"\u003eDocker-Umgebung\u003c/a\u003e und bietet Entwicklern die Möglichkeit, MLX-Modelle mit der gleichen API zu verwenden, die auch für OpenAI- und Anthropic-Anwendungen genutzt wird.\u003c/p\u003e\n\u003cp\u003evllm-metal fungiert als Plugin für vLLM und kombiniert Apples MLX-Maschinenlern-Framework mit \u003ca href=\"https://pytorch.org\"\u003ePyTorch\u003c/a\u003e. Diese Integration ermöglicht eine vereinheitlichte Berechnungspipeline, die direkt in die Kernarchitektur von vLLM integriert ist. Die Architektur besteht aus mehreren Schichten: Der Kern von vLLM bleibt unverändert, während eine Plugin-Schicht, die aus MetalPlatform, MetalWorker und MetalModelRunner besteht, die spezifischen Anforderungen von Apple Silicon adressiert. Darunter agiert MLX für die Inferenz, während PyTorch für das Laden von Modellen und die Gewichtskonvertierung zuständig ist.\u003c/p\u003e\n\u003cp\u003eEin entscheidender Vorteil von vllm-metal auf Apple Silicon ist die Nutzung von Unified Memory. Im Gegensatz zu diskreten GPUs, bei denen Daten zwischen CPU- und GPU-Speicher kopiert werden müssen, teilt sich bei Apple Silicon der Arbeitsspeicher. Dies ermöglicht zero-copy Tensor-Operationen, die die Effizienz erhöhen und den Speicherverbrauch bei der Verarbeitung längerer Sequenzen reduzieren.\u003c/p\u003e\n\u003cp\u003evllm-metal ist darauf ausgelegt, MLX-Modelle zu verarbeiten, die von der mlx-community auf Hugging Face bereitgestellt werden. Diese Modelle sind speziell für das MLX-Framework optimiert und nutzen die Metal-GPU-Beschleunigung voll aus. Docker Model Runner leitet automatisch MLX-Modelle an vllm-metal weiter, sofern das Backend installiert ist.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Implementierung von vllm-metal erfordert, dass die Software nativ auf dem Host-System läuft, da der Zugriff auf die Metal-GPU direkte Hardwarezugriffe benötigt. Bei der Installation des Backends zieht Docker Model Runner ein Docker-Image von Hub, das eine vollständige Python 3.12-Umgebung mit vllm-metal und allen benötigten Abhängigkeiten enthält. Nach der Installation wird das vllm_metal-Modul importiert, um die Funktionsfähigkeit zu überprüfen. Bei eingehenden Anfragen für kompatible Modelle startet der Scheduler von Docker Model Runner einen vllm-metal-Serverprozess, der über TCP kommuniziert und die standardisierte OpenAI-API bedient.\u003c/p\u003e\n\u003cp\u003evllm-metal unterstützt safetensors-Modelle im MLX-Format, die von der mlx-community auf Hugging Face verwaltet werden. Diese quantisierten Modelle sind speziell für die Nutzung auf Apple Silicon optimiert und bieten eine breite Palette an Einsatzmöglichkeiten.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Einführung von vllm-metal in Docker Model Runner stellt einen bedeutenden Fortschritt für die Nutzung von LLM-Inferenz auf macOS dar und eröffnet Entwicklern neue Möglichkeiten zur Optimierung ihrer \u003ca href=\"/kubernetes/\"\u003eMachine-Learning-Workflows\u003c/a\u003e auf Apple Silicon.\u003c/p\u003e\n",
      "summary": "TL;DR Docker Model Runner unterstützt nun vllm-metal, ein neues Backend, das die Ausführung von vLLM-Inferenz auf macOS mit Apple Silicon ermöglicht. Diese Erweiterung nutzt die Metal-GPU-Technologie von Apple, um MLX-Modelle effizient zu bedienen und bietet eine einheitliche API für OpenAI-kompatible Anwendungen.\nHauptinhalt Docker hat vllm-metal entwickelt, um die Nutzung des vLLM-Inferenz-Engines auf macOS mit M-Serie-Chips zu ermöglichen. Dieses neue Backend integriert sich nahtlos in die bestehende Docker-Umgebung und bietet Entwicklern die Möglichkeit, MLX-Modelle mit der gleichen API zu verwenden, die auch für OpenAI- und Anthropic-Anwendungen genutzt wird.\n",
      "image": "https://ayedo.de/docker-model-runner-brings-vllm-to-macos-with-apple-silicon.png",
      "date_published": "2026-02-26T14:42:57Z",
      "date_modified": "2026-02-26T14:42:57Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","vllm-metal","apple-silicon","machine-learning","gpu-acceleration","pytorch"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/open-webui-docker-model-runner-self-hosted-models-zero-configuration/",
      "url": "https://ayedo.de/news/open-webui-docker-model-runner-self-hosted-models-zero-configuration/",
      "title": "Open WebUI + Docker Model Runner: Selbstgehostete Modelle, keine Konfiguration",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Integration von \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Model Runner und Open WebUI ermöglicht eine einfache und konfigurationsfreie Nutzung selbstgehosteter Modelle. Entwickler können innerhalb weniger Minuten mit der Arbeit beginnen, indem sie Docker Model Runner aktivieren und Open WebUI starten, ohne zusätzliche Einstellungen vornehmen zu müssen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Kombination von Docker Model Runner (DMR) und Open WebUI stellt eine bedeutende Entwicklung für Entwickler dar, die selbstgehostete Modelle nutzen möchten. Diese beiden Open-Source-Projekte sind darauf ausgelegt, den Arbeitsablauf für das Entwickeln und Verwalten von Modellen zu optimieren. Open WebUI erkennt automatisch, wenn Docker Model Runner auf dem lokalen Host läuft und verbindet sich ohne zusätzliche Konfiguration.\u003c/p\u003e\n\u003cp\u003eUm Open WebUI zu starten, genügt der Befehl \u003ccode\u003edocker run -p 3000:8080 openwebui/open-webui\u003c/code\u003e. Nach dem Start ist die Anwendung unter \u003ccode\u003ehttp://localhost:3000\u003c/code\u003e verfügbar, wo Benutzer ein Konto erstellen und direkt mit ihren Modellen interagieren können. Diese nahtlose Integration reduziert den Aufwand für die Einrichtung und ermöglicht eine schnelle Nutzung der Funktionen.\u003c/p\u003e\n\u003cp\u003eDocker Model Runner bietet eine Docker-native Runtime-Umgebung, die es Entwicklern ermöglicht, Modelle flexibel zu verwalten, egal ob auf einem Laptop für schnelle Tests oder auf leistungsstarken Maschinen. Open WebUI hingegen fokussiert sich auf die Benutzererfahrung und bietet eine moderne, erweiterbare Oberfläche, die den Zugriff auf die Modelle erleichtert.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Integration zwischen Docker Model Runner und Open WebUI ist besonders vorteilhaft, da sie ohne spezielle Koordination oder proprietäre Schnittstellen funktioniert. Beide Projekte sind unabhängig entwickelt worden, was bedeutet, dass ihre Interaktion auf klar definierten Schnittstellen basiert. Dies ermöglicht eine hohe Flexibilität, da Entwickler entscheiden können, wo ihre Modelle laufen, ohne an spezifische Vorgaben gebunden zu sein. Solange \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Model Runner erreichbar ist, kann Open WebUI problemlos darauf zugreifen.\u003c/p\u003e\n\u003cp\u003eEin weiterer wichtiger Aspekt ist die Trennung von Runtime und Benutzeroberfläche. Diese Trennung sorgt dafür, dass die Benutzeroberfläche keine Kenntnisse über die Bereitstellung der Modelle haben muss und umgekehrt. Diese Designentscheidung ermöglicht es, dass beide Komponenten unabhängig voneinander optimiert und eingesetzt werden können.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Integration von Docker Model Runner und Open WebUI vereinfacht die Nutzung selbstgehosteter KI-Modelle erheblich und bietet Entwicklern die Kontrolle über ihre Umgebung. Mit der Möglichkeit, innerhalb kürzester Zeit zu starten und ohne umfangreiche Konfiguration zu arbeiten, wird die Nutzung von AI-Modellen in verschiedenen Umgebungen zugänglicher. Die offene Struktur beider Projekte fördert zudem die Community und die kontinuierliche Verbesserung der Software.\u003c/p\u003e\n",
      "summary": "TL;DR Die Integration von Docker Model Runner und Open WebUI ermöglicht eine einfache und konfigurationsfreie Nutzung selbstgehosteter Modelle. Entwickler können innerhalb weniger Minuten mit der Arbeit beginnen, indem sie Docker Model Runner aktivieren und Open WebUI starten, ohne zusätzliche Einstellungen vornehmen zu müssen.\nHauptinhalt Die Kombination von Docker Model Runner (DMR) und Open WebUI stellt eine bedeutende Entwicklung für Entwickler dar, die selbstgehostete Modelle nutzen möchten. Diese beiden Open-Source-Projekte sind darauf ausgelegt, den Arbeitsablauf für das Entwickeln und Verwalten von Modellen zu optimieren. Open WebUI erkennt automatisch, wenn Docker Model Runner auf dem lokalen Host läuft und verbindet sich ohne zusätzliche Konfiguration.\n",
      "image": "https://ayedo.de/open-webui-docker-model-runner-self-hosted-models-zero-configuration.png",
      "date_published": "2026-02-25T14:37:33Z",
      "date_modified": "2026-02-25T14:37:33Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","open-webui","model-runner","self-hosted-models","devops","open-source"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/from-the-captains-chair-kristiyan-velkov/",
      "url": "https://ayedo.de/news/from-the-captains-chair-kristiyan-velkov/",
      "title": "Vom Kapitänsstuhl: Kristiyan Velkov",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eKristiyan Velkov, ein \u003ca href=\"https://www.docker.com/\"\u003eDocker\u003c/a\u003e Captain und Front-end Tech Lead, hat über zehn Jahre Erfahrung in der Webentwicklung und \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e. Er nutzt Docker zur Verbesserung der Konsistenz in der Anwendungsentwicklung und -bereitstellung und setzt sich dafür ein, Docker für Front-end-Entwickler zugänglicher zu machen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eKristiyan Velkov ist ein anerkannter Docker Captain, der sich auf die Verbesserung der Front-end-Entwicklung durch den Einsatz von Docker spezialisiert hat. Mit seiner umfangreichen Erfahrung in der Webentwicklung, insbesondere mit Technologien wie React, Next.js, Angular und Vue.js, hat er Docker als unverzichtbares Werkzeug in seinen täglichen Arbeitsabläufen integriert. Seine Schwerpunkte liegen auf der Erstellung produktionsbereiter Docker-Setups, die saubere Dockerfiles, Multi-Stage-Bauten und konsistente CI/CD-Pipelines umfassen.\u003c/p\u003e\n\u003cp\u003eVelkov hat vier technische Bücher verfasst, darunter \u0026ldquo;Docker for Front-end Developers\u0026rdquo;, und trägt aktiv zu Open-Source-Projekten bei. Er hat mehrere offizielle Docker-Leitfäden für populäre Front-end-Technologien entwickelt, um Entwicklern zu helfen, Docker besser zu verstehen. Dabei legt er Wert darauf, nicht nur die Funktionsweise von Docker zu erklären, sondern auch die zugrunde liegenden Gründe für bestimmte Ansätze darzulegen.\u003c/p\u003e\n\u003cp\u003eSein Engagement für die Community zeigt sich in seinem Bestreben, die Kluft zwischen Front-end-Entwicklern und \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e-Teams zu überbrücken. Velkov begann mit Docker, um die häufige Ausrede \u0026ldquo;Es funktioniert auf meiner Maschine\u0026rdquo; zu überwinden, die oft zu Kommunikationsproblemen und Debugging-Herausforderungen führte. Durch den Einsatz von Docker konnte er die Konsistenz seiner Projekte über verschiedene Umgebungen hinweg sicherstellen, was zu einer erheblichen Reduzierung von Stress und Zeitaufwand führte.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Implementierung von Docker in Front-end-Projekten ermöglicht es Entwicklern, die Herausforderungen bei der Einrichtung und dem Betrieb von Anwendungen zu minimieren. Durch den Einsatz von gut strukturierten Dockerfiles und bewährten Praktiken bei CI/CD-Pipelines wird die Wartbarkeit und Zuverlässigkeit von Anwendungen erhöht. Velkovs Ansatz zeigt, dass Docker nicht nur für Back-end-Entwickler oder \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e-Teams geeignet ist, sondern auch für Front-end-Entwickler, die moderne Webanwendungen erstellen.\u003c/p\u003e\n\u003cp\u003eDie Veröffentlichung von Leitfäden und Büchern, die sich auf die \u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e von Front-end-Anwendungen konzentrieren, ist ein wichtiger Schritt, um das Bewusstsein für Docker in dieser Community zu schärfen. Indem er praktische Beispiele und klare Diagramme bereitstellt, trägt Velkov dazu bei, Docker für Entwickler zugänglicher und verständlicher zu machen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eKristiyan Velkovs Bestrebungen, Docker für Front-end-Entwickler zu fördern, könnten dazu beitragen, die Akzeptanz und Nutzung von Containertechnologien in der Front-end-Entwicklung zu erhöhen. In den kommenden Jahren könnte sich dies positiv auf die Effizienz und Qualität der Anwendungsentwicklung auswirken.\u003c/p\u003e\n",
      "summary": "TL;DR Kristiyan Velkov, ein Docker Captain und Front-end Tech Lead, hat über zehn Jahre Erfahrung in der Webentwicklung und DevOps. Er nutzt Docker zur Verbesserung der Konsistenz in der Anwendungsentwicklung und -bereitstellung und setzt sich dafür ein, Docker für Front-end-Entwickler zugänglicher zu machen.\nHauptinhalt Kristiyan Velkov ist ein anerkannter Docker Captain, der sich auf die Verbesserung der Front-end-Entwicklung durch den Einsatz von Docker spezialisiert hat. Mit seiner umfangreichen Erfahrung in der Webentwicklung, insbesondere mit Technologien wie React, Next.js, Angular und Vue.js, hat er Docker als unverzichtbares Werkzeug in seinen täglichen Arbeitsabläufen integriert. Seine Schwerpunkte liegen auf der Erstellung produktionsbereiter Docker-Setups, die saubere Dockerfiles, Multi-Stage-Bauten und konsistente CI/CD-Pipelines umfassen.\n",
      "image": "https://ayedo.de/from-the-captains-chair-kristiyan-velkov.png",
      "date_published": "2026-02-24T14:00:00Z",
      "date_modified": "2026-02-24T14:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","frontend-development","devops","ci-cd","web-development","react"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/gordon-beta-dockers-ai-agent-just-got-an-update/",
      "url": "https://ayedo.de/news/gordon-beta-dockers-ai-agent-just-got-an-update/",
      "title": "Gordon (Beta): Dockers KI-Agent hat ein Update erhalten",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDocker hat Gordon, einen KI-Agenten, in der Beta-Phase aktualisiert, der speziell für die Interaktion mit \u003ca href=\"/kubernetes/\"\u003eDocker-Umgebungen\u003c/a\u003e entwickelt wurde. Gordon kann Aufgaben wie Debugging, \u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e und Management von Docker-Operationen autonom durchführen, indem er auf die spezifische Projektstruktur und Konfiguration des Nutzers zugreift.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eGordon ist ein KI-Agent, der in der neuesten Version von Docker Desktop, 4.61, verfügbar ist. Im Gegensatz zu allgemeinen KI-Agenten, die lediglich grundlegende Informationen bereitstellen, ist Gordon darauf ausgelegt, spezifische Probleme in Docker-Umgebungen zu identifizieren und zu lösen. Der Agent hat Zugriff auf die Shell, das Dateisystem und die Docker-CLI und kann somit direkt mit der Docker-Umgebung interagieren.\u003c/p\u003e\n\u003cp\u003eEin zentrales Merkmal von Gordon ist seine Fähigkeit, kontextbezogene Lösungen anzubieten. Bei einem Container, der mit dem Exit-Code 137 beendet wird, analysiert Gordon die Speicherkonfiguration, überprüft die Logs und identifiziert den speicherintensiven Prozess, um eine Lösung vorzuschlagen. Dies geschieht in einem genehmigungsbasierten Modell, bei dem der Nutzer die vorgeschlagenen Aktionen bestätigen muss, bevor sie ausgeführt werden.\u003c/p\u003e\n\u003cp\u003eGordon kann auch beim Erstellen und Containerisieren von Anwendungen helfen. Wenn ein Nutzer eine Next.js-App containerisieren möchte, analysiert Gordon die Projektstruktur, erkennt Abhängigkeiten und erstellt einen produktionsbereiten Dockerfile sowie eine docker-compose.yml-Datei mit den richtigen Diensten. Diese Automatisierung reduziert den Aufwand und die Komplexität, die normalerweise mit der \u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e verbunden sind.\u003c/p\u003e\n\u003cp\u003eZusätzlich zu Debugging und Containerisierung kann Gordon alltägliche Docker-Operationen durchführen, wie das Bereinigen von Speicherplatz, das Stoppen von Containern oder das Herunterladen und Ausführen spezifischer Images. Routineaufgaben sollen durch eine konversationelle Schnittstelle vereinfacht werden, sodass der Nutzer nicht ständig in die Dokumentation schauen muss.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eGordon nutzt das cagent-Framework, das in Docker Desktop integriert ist, und arbeitet lokal innerhalb der Docker-Umgebung. Die Erlaubnismodelle sind einfach: Gordon zeigt die beabsichtigten Aktionen an, und der Nutzer hat die Kontrolle über die Genehmigung oder Ablehnung dieser Aktionen. Diese Transparenz und Kontrolle sind entscheidend, um das Vertrauen in die Automatisierung durch KI zu fördern.\u003c/p\u003e\n\u003cp\u003eDie Möglichkeit, Gordons Arbeitsverzeichnis auf eine spezifische Codebasis zu konfigurieren, ermöglicht es dem Agenten, den Kontext des Projekts vollständig zu verstehen, einschließlich der vorhandenen Docker-Setups und Abhängigkeiten. Dies steigert die Effizienz und Genauigkeit bei der Ausführung von Aufgaben.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eGordon stellt einen bedeutenden Fortschritt in der Nutzung von KI innerhalb von Docker dar, indem er spezifische, kontextbezogene Lösungen für Entwickler und \u003ca href=\"/kubernetes/\"\u003eDevOps-Teams\u003c/a\u003e bietet. Mit der kontinuierlichen Verbesserung und dem Feedback aus der Beta-Phase könnte Gordon in Zukunft eine zentrale Rolle in der Automatisierung von Docker-Workflows spielen.\u003c/p\u003e\n",
      "summary": "TL;DR Docker hat Gordon, einen KI-Agenten, in der Beta-Phase aktualisiert, der speziell für die Interaktion mit Docker-Umgebungen entwickelt wurde. Gordon kann Aufgaben wie Debugging, Containerisierung und Management von Docker-Operationen autonom durchführen, indem er auf die spezifische Projektstruktur und Konfiguration des Nutzers zugreift.\nHauptinhalt Gordon ist ein KI-Agent, der in der neuesten Version von Docker Desktop, 4.61, verfügbar ist. Im Gegensatz zu allgemeinen KI-Agenten, die lediglich grundlegende Informationen bereitstellen, ist Gordon darauf ausgelegt, spezifische Probleme in Docker-Umgebungen zu identifizieren und zu lösen. Der Agent hat Zugriff auf die Shell, das Dateisystem und die Docker-CLI und kann somit direkt mit der Docker-Umgebung interagieren.\n",
      "image": "https://ayedo.de/gordon-beta-dockers-ai-agent-just-got-an-update.png",
      "date_published": "2026-02-23T14:13:00Z",
      "date_modified": "2026-02-23T14:13:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","ki-agent","containerisierung","debugging","automatisierung","devops"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/run-openclaw-securely-in-docker-sandboxes/",
      "url": "https://ayedo.de/news/run-openclaw-securely-in-docker-sandboxes/",
      "title": "OpenClaw sicher in Docker-Sandboxes ausführen",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDocker hat eine neue Funktion namens Docker Sandboxes eingeführt, die es ermöglicht, KI-Agenten wie OpenClaw in isolierten Micro-VMs auszuführen. Diese Sandboxes bieten starke Sicherheitsmerkmale, einschließlich einer Netzwerkproxy-Funktion, die API-Schlüssel schützt und eine einfache Installation und Nutzung von Modellen ermöglicht.\u003c/p\u003e\n\u003cp\u003eDocker Sandboxes stellen eine neue Möglichkeit dar, um KI-Agenten und andere Anwendungen in einer sicheren und isolierten Umgebung zu betreiben. Diese Funktion bietet Entwicklern eine starke Sicherheitsgrenze und eine benutzerfreundliche Erfahrung, indem sie die Ausführung von Anwendungen in Micro-VMs ermöglicht. Ein zentrales Merkmal ist der konfigurierbare Netzwerkproxy, der verhindert, dass Agenten auf beliebige Internetadressen zugreifen können. Gleichzeitig wird sichergestellt, dass API-Schlüssel, wie ANTHROPIC_API_KEY oder OPENAI_API_KEY, nicht zugänglich sind und somit nicht aus der Sandbox entweichen können.\u003c/p\u003e\n\u003cp\u003eUm OpenClaw, einen Open-Source-KI-Coding-Agenten, in einer \u003ca href=\"/kubernetes/\"\u003eDocker-Sandbox\u003c/a\u003e auszuführen, sind lediglich zwei Befehle erforderlich. Zunächst muss Docker Desktop installiert und der Docker Model Runner aktiviert sein. Danach kann ein Modell heruntergeladen und die Sandbox erstellt werden. Mit dem Befehl \u003ccode\u003edocker sandbox create\u003c/code\u003e wird eine neue Sandbox erstellt, gefolgt von der Ausführung des Agenten. Innerhalb der Sandbox wird die Terminal-Benutzeroberfläche von OpenClaw aufgerufen, die mit einem lokal laufenden Modell kommuniziert.\u003c/p\u003e\n\u003cp\u003eDie Sandbox unterstützt auch die Verwendung von Cloud-Modellen. Der Netzwerkproxy injiziert automatisch API-Schlüssel aus der Host-Umgebung, sodass OpenClaw bei Bedarf Cloud-Modelle nutzen kann, ohne dass die Schlüssel innerhalb der Sandbox exponiert werden. Dies ermöglicht eine nahtlose Nutzung von lokalen Modellen für Experimente und den Wechsel zu Cloud-Modellen für produktive Anwendungen.\u003c/p\u003e\n\u003cp\u003eDie technische Funktionsweise der Docker Sandbox umfasst eine vorgefertigte Bilddatei, die auf einem Shell-Sandbox-Template basiert und Node.js sowie OpenClaw enthält. Ein kleines Netzwerk-Bridge-Skript sorgt dafür, dass Anfragen von OpenClaw über den Proxy an den Docker Model Runner auf dem Host weitergeleitet werden. Dieses Skript ermöglicht es, dass OpenClaw als Node.js-Anwendung korrekt mit dem HTTP-Proxy kommuniziert, was für die Ausführung und Nutzung von Modellen entscheidend ist.\u003c/p\u003e\n\u003cp\u003eFür Entwickler, die eine benutzerdefinierte Umgebung erstellen möchten, gibt es eine detaillierte Anleitung zur Erstellung eines eigenen Docker-Sandbox-Images. Diese umfasst die Installation von Node.js und OpenClaw sowie die Einrichtung eines Model Runner Bridges, um Anfragen korrekt weiterzuleiten.\u003c/p\u003e\n\u003cp\u003eInsgesamt bieten Docker Sandboxes eine innovative Lösung für die sichere Ausführung von KI-Anwendungen und ermöglichen eine flexible Handhabung sowohl lokaler als auch cloudbasierter Modelle. Die Kombination aus Sicherheit, einfacher Handhabung und Anpassungsfähigkeit macht diese Funktion zu einem wertvollen Werkzeug für \u003ca href=\"/kubernetes/\"\u003eDevOps\u003c/a\u003e und Cloud-Architekten.\u003c/p\u003e\n",
      "summary": "TL;DR Docker hat eine neue Funktion namens Docker Sandboxes eingeführt, die es ermöglicht, KI-Agenten wie OpenClaw in isolierten Micro-VMs auszuführen. Diese Sandboxes bieten starke Sicherheitsmerkmale, einschließlich einer Netzwerkproxy-Funktion, die API-Schlüssel schützt und eine einfache Installation und Nutzung von Modellen ermöglicht.\nDocker Sandboxes stellen eine neue Möglichkeit dar, um KI-Agenten und andere Anwendungen in einer sicheren und isolierten Umgebung zu betreiben. Diese Funktion bietet Entwicklern eine starke Sicherheitsgrenze und eine benutzerfreundliche Erfahrung, indem sie die Ausführung von Anwendungen in Micro-VMs ermöglicht. Ein zentrales Merkmal ist der konfigurierbare Netzwerkproxy, der verhindert, dass Agenten auf beliebige Internetadressen zugreifen können. Gleichzeitig wird sichergestellt, dass API-Schlüssel, wie ANTHROPIC_API_KEY oder OPENAI_API_KEY, nicht zugänglich sind und somit nicht aus der Sandbox entweichen können.\n",
      "image": "https://ayedo.de/run-openclaw-securely-in-docker-sandboxes.png",
      "date_published": "2026-02-23T14:00:00Z",
      "date_modified": "2026-02-23T14:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","docker-sandbox","openclaw","micro-vm","netzwerkproxy","sicherheit"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/state-of-agentic-ai-report-key-findings/",
      "url": "https://ayedo.de/news/state-of-agentic-ai-report-key-findings/",
      "title": "Statusbericht zur Agentic AI: Zentrale Erkenntnisse",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eEine umfassende Umfrage unter über 800 Entwicklern und Technologieentscheidern zeigt, dass 60 % der Organisationen bereits KI-Agenten in Produktion haben. Sicherheitsbedenken und technische Komplexität stellen die größten Herausforderungen für die Skalierung von agentic AI dar. Während \u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e als zentrale Technologie betrachtet wird, ist der Weg zur unternehmensweiten Implementierung noch lang.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDer Statusbericht zur agentic AI zeigt, dass die Akzeptanz von KI-Agenten in Unternehmen rasant zunimmt. 60 % der befragten Organisationen setzen bereits KI-Agenten in der Produktion ein, und 94 % betrachten den Aufbau solcher Agenten als strategische Priorität. Die meisten Implementierungen sind jedoch intern und konzentrieren sich auf Produktivitätssteigerung und operative Effizienz.\u003c/p\u003e\n\u003cp\u003eDie Umfrage identifiziert Sicherheitsbedenken als das größte Hindernis für die Skalierung von agentic AI. 40 % der Befragten sehen Sicherheit als die größte Herausforderung, wobei 45 % Schwierigkeiten haben, sicherzustellen, dass ihre Tools für den Unternehmenseinsatz geeignet sind. Technische Komplexität verstärkt diese Probleme, da ein Drittel der Organisationen (33 %) von Orchestrierungsproblemen berichtet, insbesondere in multi-modalen und multi-cloud Umgebungen. 79 % der Organisationen nutzen Agenten in zwei oder mehr Umgebungen.\u003c/p\u003e\n\u003cp\u003eObwohl 85 % der Teams mit dem Model Context Protocol (MCP) vertraut sind, berichten viele über erhebliche Sicherheits-, Konfigurations- und Verwaltungsprobleme, die einer Produktion im großen Maßstab im Wege stehen. Die Bedenken hinsichtlich einer Abhängigkeit von Anbietern sind ebenfalls hoch: 76 % der globalen Befragten äußern aktiv Besorgnis über Vendor Lock-in, wobei die Zahlen in Ländern wie Frankreich (88 %), Japan (83 %) und Großbritannien (82 %) noch höher sind.\u003c/p\u003e\n\u003cp\u003eDie \u003ca href=\"/kubernetes/\"\u003eContainerisierung\u003c/a\u003e erweist sich als grundlegende Technologie für die Entwicklung und Produktion von Agenten. 94 % der Befragten setzen Container ein, und 98 % folgen denselben \u003ca href=\"/kubernetes/\"\u003ecloud-nativen\u003c/a\u003e Workflows wie bei herkömmlicher Software. Dies etabliert Container als bewährte Grundlage für die Infrastruktur von agentic AI.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Ergebnisse deuten darauf hin, dass der Weg zur unternehmensweiten Implementierung von agentic AI nicht durch grundlegende Neuerungen, sondern durch eine Konsolidierung um eine Vertrauensschicht gestaltet werden sollte. Dazu gehören der Zugang zu vertrauenswürdigen Inhalten und Komponenten, sichere Standard-Laufzeitumgebungen sowie standardisierte Orchestrierung und Richtlinien. Die Schaffung von tragbaren und auditierbaren Paketen ist ebenfalls entscheidend.\u003c/p\u003e\n\u003cp\u003eUm das volle Potenzial von agentic AI zu entfalten, müssen Organisationen jetzt in diese Vertrauensschicht investieren. Teams, die auf den bereits bestehenden \u003ca href=\"/kubernetes/\"\u003eContainer-Basiskomponenten\u003c/a\u003e aufbauen, werden die Ersten sein, die Agenten von lokalen Produktivitätsgewinnen zu nachhaltigen, unternehmensweiten Ergebnissen skalieren können.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Transformation hin zu agentic AI wird voraussichtlich ein Jahrzehnt in Anspruch nehmen, wobei Unternehmen derzeit die Grundlagen für Governance und Vertrauen legen. Der nächste Schritt zur Entfaltung des vollen Potenzials von agentic AI hängt von der Standardisierung der Sicherheits- und Orchestrierungsprozesse ab.\u003c/p\u003e\n",
      "summary": "TL;DR Eine umfassende Umfrage unter über 800 Entwicklern und Technologieentscheidern zeigt, dass 60 % der Organisationen bereits KI-Agenten in Produktion haben. Sicherheitsbedenken und technische Komplexität stellen die größten Herausforderungen für die Skalierung von agentic AI dar. Während Containerisierung als zentrale Technologie betrachtet wird, ist der Weg zur unternehmensweiten Implementierung noch lang.\nHauptinhalt Der Statusbericht zur agentic AI zeigt, dass die Akzeptanz von KI-Agenten in Unternehmen rasant zunimmt. 60 % der befragten Organisationen setzen bereits KI-Agenten in der Produktion ein, und 94 % betrachten den Aufbau solcher Agenten als strategische Priorität. Die meisten Implementierungen sind jedoch intern und konzentrieren sich auf Produktivitätssteigerung und operative Effizienz.\n",
      "image": "https://ayedo.de/state-of-agentic-ai-report-key-findings.png",
      "date_published": "2026-02-20T17:18:29Z",
      "date_modified": "2026-02-20T17:18:29Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","agentic-ai","ki-agenten","containerisierung","sicherheitsbedenken","technische-komplexit-t"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/how-medplum-secured-their-healthcare-platform-with-docker-hardened-images-dhi/",
      "url": "https://ayedo.de/news/how-medplum-secured-their-healthcare-platform-with-docker-hardened-images-dhi/",
      "title": "Wie Medplum ihre Gesundheitsplattform mit Docker Hardened Images (DHI) absicherte",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eMedplum hat erfolgreich seine Gesundheitsplattform auf \u003ca href=\"https://www.docker.com/\"\u003eDocker Hardened Images\u003c/a\u003e (DHI) migriert, um die Sicherheitslage zu verbessern und gleichzeitig den Codeaufwand minimal zu halten. Diese Migration erforderte nur 54 Zeilen Änderungen in fünf Dateien und demonstriert, wie DHI Unternehmen eine enterprise-grade Sicherheit bieten kann, ohne den Entwicklungsprozess zu belasten.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eMedplum ist eine Open-Source-Plattform für elektronische Gesundheitsakten (EHR), die über 20 Millionen Patienten bedient. Die Plattform ermöglicht Entwicklern, sich auf die Erstellung von Gesundheitsanwendungen zu konzentrieren, indem sie die Verwaltung von Patientendaten, klinischen Workflows und \u003ca href=\"/compliance/\"\u003eCompliance\u003c/a\u003e -Anforderungen übernimmt. Medplum bietet von Haus aus HIPAA- und SOC2-Compliance sowie eine FHIR R4 API für die Interoperabilität von Gesundheitsdaten. Die Plattform kann sowohl selbst gehostet als auch verwaltet bereitgestellt werden und hat sich als vertrauenswürdige Basis für Gesundheitsentwickler weltweit etabliert.\u003c/p\u003e\n\u003cp\u003eEin zentrales Problem, mit dem Medplum konfrontiert war, ist das sogenannte \u0026ldquo;Vulnerability Noise\u0026rdquo;. Bei der Entwicklung von Software im Gesundheitswesen sind Integration mit bestehenden EHR-Systemen und die Einhaltung strenger Vorschriften wie HIPAA von entscheidender Bedeutung. Diese Herausforderungen führen zu einem erhöhten Aufwand für die Sicherheitsüberprüfung. Selbst bei Verwendung schlanker Basisbilder können Standard-Distributionen nicht essentielle Pakete enthalten, die während der Sicherheitsprüfungen Sicherheitswarnungen auslösen. Diese Warnungen erforderten von Medplum eine umfassende Dokumentation und Untersuchung, was die Sicherheitsteams belastete.\u003c/p\u003e\n\u003cp\u003eUm diese Probleme zu adressieren, entschied sich Medplum für die Migration zu \u003ca href=\"https://www.docker.com/\"\u003eDocker Hardened Images\u003c/a\u003e. Diese Entscheidung wurde durch die Notwendigkeit motiviert, die Angriffsfläche in Produktionsumgebungen zu verringern und die Anzahl der Sicherheitswarnungen zu minimieren. Die Migration erforderte lediglich 54 Zeilen Codeänderungen, was die Implementierung erheblich erleichterte und die Sicherheitslage deutlich verbesserte.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Verwendung von Docker Hardened Images ermöglicht es Medplum, die Angriffsfläche durch die Eliminierung nicht benötigter Pakete zu reduzieren. Dies führt zu kleineren Image-Größen, schnelleren Bereitstellungen und einem vereinfachten Build-Prozess, ohne dass manuelle Härtungsskripte erforderlich sind. Die Migration zu DHI stellt somit eine effektive Lösung für das Problem der Sicherheitswarnungen dar, da viele CVEs in Standardbildern oft nicht umsetzbar sind und nur dokumentiert werden müssen. Die DHI-Architektur bietet eine robuste Grundlage für die Entwicklung und den Betrieb von Sicherheitslösungen im Gesundheitswesen.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eMedplums Migration zu Docker Hardened Images zeigt, wie Unternehmen im Gesundheitswesen ihre Sicherheitslage durch innovative Technologien verbessern können, ohne die Entwicklungsressourcen erheblich zu belasten. Die Erfahrungen von Medplum könnten als Modell für andere Organisationen dienen, die ähnliche Herausforderungen bewältigen müssen.\u003c/p\u003e\n",
      "summary": "TL;DR Medplum hat erfolgreich seine Gesundheitsplattform auf Docker Hardened Images (DHI) migriert, um die Sicherheitslage zu verbessern und gleichzeitig den Codeaufwand minimal zu halten. Diese Migration erforderte nur 54 Zeilen Änderungen in fünf Dateien und demonstriert, wie DHI Unternehmen eine enterprise-grade Sicherheit bieten kann, ohne den Entwicklungsprozess zu belasten.\nHauptinhalt Medplum ist eine Open-Source-Plattform für elektronische Gesundheitsakten (EHR), die über 20 Millionen Patienten bedient. Die Plattform ermöglicht Entwicklern, sich auf die Erstellung von Gesundheitsanwendungen zu konzentrieren, indem sie die Verwaltung von Patientendaten, klinischen Workflows und Compliance -Anforderungen übernimmt. Medplum bietet von Haus aus HIPAA- und SOC2-Compliance sowie eine FHIR R4 API für die Interoperabilität von Gesundheitsdaten. Die Plattform kann sowohl selbst gehostet als auch verwaltet bereitgestellt werden und hat sich als vertrauenswürdige Basis für Gesundheitsentwickler weltweit etabliert.\n",
      "image": "https://ayedo.de/how-medplum-secured-their-healthcare-platform-with-docker-hardened-images-dhi.png",
      "date_published": "2026-02-19T14:00:00Z",
      "date_modified": "2026-02-19T14:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","docker-hardened-images","gesundheitsplattform","ehealth","sicherheit","compliance"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/the-multi-model-database-for-ai-agents-deploy-surrealdb-with-docker-extension/",
      "url": "https://ayedo.de/news/the-multi-model-database-for-ai-agents-deploy-surrealdb-with-docker-extension/",
      "title": "Die Multi-Model-Datenbank für KI-Agenten: SurrealDB mit Docker-Erweiterung bereitstellen",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eSurrealDB ist eine Multi-Model-Datenbank, die verschiedene Datentypen in einer einzigen Engine vereint und speziell für KI-Anwendungen optimiert ist. Sie ermöglicht eine einfache Bereitstellung über \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e und reduziert die Komplexität der Dateninfrastruktur, während sie gleichzeitig die Effizienz und Reaktionsgeschwindigkeit von AI-Systemen verbessert.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie zunehmende Komplexität moderner Anwendungen erfordert oft die Integration mehrerer Datenbanken, darunter relationale, dokumentenbasierte, graphenbasierte und zeitbasierte Systeme. Diese Fragmentierung führt zu höheren Kosten, operationalen Risiken und einer Verlangsamung der Innovationsgeschwindigkeit. Entwickler verbringen oft mehr Zeit mit der Verwaltung der Infrastruktur und dem Schreiben von Integrationscode als mit der eigentlichen Anwendungslogik. Dies ist besonders problematisch für KI-Anwendungen, bei denen fragmentierte Daten und Kontexte zu schlechten Ergebnissen führen können.\u003c/p\u003e\n\u003cp\u003eSurrealDB bietet eine Lösung für diese Herausforderungen. Diese in Rust entwickelte Multi-Model-Datenbank vereint verschiedene Datentypen – darunter Dokumente, Graphen, relationale Daten und Vektoren – in einer einzigen Engine. Mit der SQL-ähnlichen Abfragesprache SurrealQL können Entwickler komplexe Abfragen durchführen, die mehrere Datentypen in einem Schritt kombinieren. SurrealDB ist für datenschwere Arbeitslasten konzipiert, die in Echtzeitanwendungen, Wissensgraphen und Edge-Computing-Szenarien verwendet werden.\u003c/p\u003e\n\u003cp\u003eEin zentrales Merkmal von SurrealDB ist die Fähigkeit, eine einheitliche Laufzeit für verschiedene Datenmodelle bereitzustellen. Dies ermöglicht es, Anfragen, die Vektorsuche, Graph Traversal und relationale Daten kombinieren, effizient zu verarbeiten, ohne auf fehleranfällige Cross-Datenbank-APIs oder ETL-Pipelines angewiesen zu sein. Darüber hinaus bietet SurrealDB niedrige Latenzzeiten und aktuelle Daten für interaktive KI-Agenten, was für Anwendungen wie Sprachassistenten entscheidend ist.\u003c/p\u003e\n\u003cp\u003eDie Architektur von SurrealDB trennt Speicherung und Verarbeitung, was eine unabhängige Skalierung der beiden Schichten ermöglicht. Dies bedeutet, dass die Datenbank sowohl in einer Einzelknoten- als auch in einer hochgradig skalierbaren, fehlertoleranten Konfiguration betrieben werden kann. Die Möglichkeit, flexible Dokumente neben strukturierten relationalen Tabellen zu speichern und gleichzeitig Echtzeit-Änderungen zu abonnieren, bietet Entwicklern zusätzliche Flexibilität.\u003c/p\u003e\n\u003cp\u003eDie Bereitstellung von SurrealDB als \u003ca href=\"/kubernetes/\"\u003eDocker\u003c/a\u003e Erweiterung vereinfacht den Installationsprozess erheblich. Entwickler, die bereits Docker Desktop nutzen, können die Datenbank ohne separate Installationen oder komplexe Konfigurationen einfach über den Extensions Marketplace aktivieren.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Unterstützung für ACID-konforme Transaktionen über alle Datenmodelle hinweg gewährleistet Datenkonsistenz, was für kritische Anwendungen von großer Bedeutung ist. Die Möglichkeit, komplexe Beziehungen mithilfe der Graph Traversal-Syntax zu modellieren, sowie die Nutzung von LIVE SELECT-Abfragen für Echtzeit-Updates, optimiert die Reaktionsfähigkeit von Anwendungen erheblich. Die Trennung von Speicher- und Verarbeitungsschicht ermöglicht es, Ressourcen effizienter zu verwalten und die Leistung zu steigern.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eSurrealDB stellt eine innovative Lösung für die Herausforderungen moderner Dateninfrastrukturen dar und bietet Entwicklern die Möglichkeit, die Komplexität ihrer Systeme erheblich zu reduzieren. Mit der zunehmenden Bedeutung von KI-Anwendungen wird die Integration einer solchen Multi-Model-Datenbank in die Entwicklungsprozesse von Unternehmen immer relevanter.\u003c/p\u003e\n",
      "summary": "TL;DR SurrealDB ist eine Multi-Model-Datenbank, die verschiedene Datentypen in einer einzigen Engine vereint und speziell für KI-Anwendungen optimiert ist. Sie ermöglicht eine einfache Bereitstellung über Docker und reduziert die Komplexität der Dateninfrastruktur, während sie gleichzeitig die Effizienz und Reaktionsgeschwindigkeit von AI-Systemen verbessert.\nHauptinhalt Die zunehmende Komplexität moderner Anwendungen erfordert oft die Integration mehrerer Datenbanken, darunter relationale, dokumentenbasierte, graphenbasierte und zeitbasierte Systeme. Diese Fragmentierung führt zu höheren Kosten, operationalen Risiken und einer Verlangsamung der Innovationsgeschwindigkeit. Entwickler verbringen oft mehr Zeit mit der Verwaltung der Infrastruktur und dem Schreiben von Integrationscode als mit der eigentlichen Anwendungslogik. Dies ist besonders problematisch für KI-Anwendungen, bei denen fragmentierte Daten und Kontexte zu schlechten Ergebnissen führen können.\n",
      "image": "https://ayedo.de/the-multi-model-database-for-ai-agents-deploy-surrealdb-with-docker-extension.png",
      "date_published": "2026-02-17T14:00:00Z",
      "date_modified": "2026-02-17T14:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["docker","container","multi-model-database","surrealdb","ai-applications","data-integration","real-time-data"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/spotlight-on-sig-architecture-api-governance/",
      "url": "https://ayedo.de/news/spotlight-on-sig-architecture-api-governance/",
      "title": "Im Fokus: SIG Architektur - API Governance",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie API Governance innerhalb des SIG Architecture-Projekts von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e zielt darauf ab, die Stabilität und Innovationsfähigkeit der verschiedenen APIs zu gewährleisten. Die Initiative befasst sich nicht nur mit REST-APIs, sondern auch mit anderen API-Oberflächen, wie z.B. Kommandozeilenflags und Konfigurationsdateien. Durch strukturierte Richtlinien und aktive Beteiligung während des Design- und Implementierungsprozesses wird die Qualität und Konsistenz der APIs sichergestellt.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie API Governance ist ein Subprojekt des SIG Architecture von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e, das seit 2019 aktiv ist. Es wird von Jordan Liggitt geleitet, der seit 2014 an Kubernetes arbeitet und umfassende Erfahrungen in der Entwicklung von Authentifizierungs- und Autorisierungsmechanismen gesammelt hat. Die Hauptziele des Projekts sind die Gewährleistung der Stabilität der APIs, während gleichzeitig Raum für Innovationen geschaffen wird.\u003c/p\u003e\n\u003cp\u003eKubernetes bietet eine Vielzahl von APIs, die oft nicht als solche wahrgenommen werden. Neben der weit verbreiteten REST-API gehören dazu auch Kommandozeilenflags, Konfigurationsdateien und die Interaktion mit Backend-Komponenten wie \u003ca href=\"/kubernetes/\"\u003eContainer\u003c/a\u003e–Runtimes. Diese unterschiedlichen API-Oberflächen erfordern jeweils spezifische Überlegungen, da sie unterschiedliche Zielgruppen ansprechen.\u003c/p\u003e\n\u003cp\u003eEin zentrales Anliegen der API Governance ist es, einen stabilen Rahmen zu schaffen, der dennoch Veränderungen und Weiterentwicklungen ermöglicht. Dies wird durch die Implementierung von Richtlinien und Konventionen erreicht, die sowohl für die API-Entwicklung als auch für die Änderung bestehender APIs gelten. Diese Dokumente werden kontinuierlich aktualisiert, um neuen Herausforderungen gerecht zu werden.\u003c/p\u003e\n\u003cp\u003eDie API Governance spielt eine entscheidende Rolle im Lebenszyklus von Kubernetes-Änderungen, insbesondere während des Kubernetes Enhancement Proposal (KEP) Prozesses. KEPs sind für alle Verbesserungen obligatorisch und variieren in ihrem Detailgrad. Einige KEPs enthalten spezifische API-Definitionen, was eine frühzeitige API-Überprüfung ermöglicht. Bei weniger detaillierten KEPs kann die Überprüfung erst in späteren Phasen der Implementierung erfolgen, was zu strukturellen Anpassungen führen kann.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie API Governance fördert die Zusammenarbeit zwischen verschiedenen Entwicklungsteams, indem sie frühzeitig in den Designprozess integriert wird. Dies ermöglicht eine bessere Abstimmung und verringert das Risiko von Missverständnissen und Fehlern während der Implementierung. Der Ansatz, sowohl detaillierte Entwürfe als auch iterative Entdeckungsprozesse zu unterstützen, zeigt sich als flexibel und anpassungsfähig an die unterschiedlichen Arbeitsweisen der Teams.\u003c/p\u003e\n\u003cp\u003eDie kontinuierliche Aktualisierung der Richtlinien und die aktive Beteiligung an KEPs stellen sicher, dass die APIs nicht nur den aktuellen Anforderungen entsprechen, sondern auch zukunftssicher gestaltet werden. Dies ist besonders wichtig in einem dynamischen Umfeld wie Kubernetes, wo sich Technologien und Anforderungen schnell ändern können.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie API Governance innerhalb von Kubernetes ist ein entscheidender Faktor für die Qualität und Stabilität der API-Struktur. Die fortlaufende Anpassung und Mitwirkung an den Entwicklungsprozessen wird auch in Zukunft eine zentrale Rolle spielen, um die Innovationsfähigkeit des Projekts zu fördern und gleichzeitig die Integrität der APIs zu wahren.\u003c/p\u003e\n",
      "summary": "TL;DR Die API Governance innerhalb des SIG Architecture-Projekts von Kubernetes zielt darauf ab, die Stabilität und Innovationsfähigkeit der verschiedenen APIs zu gewährleisten. Die Initiative befasst sich nicht nur mit REST-APIs, sondern auch mit anderen API-Oberflächen, wie z.B. Kommandozeilenflags und Konfigurationsdateien. Durch strukturierte Richtlinien und aktive Beteiligung während des Design- und Implementierungsprozesses wird die Qualität und Konsistenz der APIs sichergestellt.\nHauptinhalt Die API Governance ist ein Subprojekt des SIG Architecture von Kubernetes, das seit 2019 aktiv ist. Es wird von Jordan Liggitt geleitet, der seit 2014 an Kubernetes arbeitet und umfassende Erfahrungen in der Entwicklung von Authentifizierungs- und Autorisierungsmechanismen gesammelt hat. Die Hauptziele des Projekts sind die Gewährleistung der Stabilität der APIs, während gleichzeitig Raum für Innovationen geschaffen wird.\n",
      "image": "https://ayedo.de/spotlight-on-sig-architecture-api-governance.png",
      "date_published": "2026-02-12T00:00:00Z",
      "date_modified": "2026-02-12T00:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","api-governance","sig-architecture","rest-apis","container-runtimes","api-design"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/introducing-node-readiness-controller/",
      "url": "https://ayedo.de/news/introducing-node-readiness-controller/",
      "title": "Einführung des Node Readiness Controllers",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDer Node Readiness Controller erweitert die Funktionalität der \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Knotenbereitschaft durch die Einführung eines deklarativen Systems zur Verwaltung von Knoten-Taints. Dies ermöglicht eine präzisere Steuerung der Knotenverfügbarkeit, indem spezifische Infrastrukturabhängigkeiten berücksichtigt werden und unterschiedliche Anforderungen an die Betriebsbereitschaft in heterogenen Clustern durchgesetzt werden können.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eIm traditionellen \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Modell wird die Eignung eines Knotens für Arbeitslasten durch einen einzigen binären \u0026ldquo;Bereit\u0026rdquo;-Zustand bestimmt. In modernen Kubernetes-Umgebungen sind jedoch komplexe Infrastrukturabhängigkeiten erforderlich, damit Knoten zuverlässig Pods hosten können. Der Node Readiness Controller wurde entwickelt, um diese Lücke zu schließen und eine dynamische Verwaltung von Taints basierend auf benutzerdefinierten Gesundheitsindikatoren zu ermöglichen.\u003c/p\u003e\n\u003cp\u003eDer Controller erlaubt es Betreibern, spezifische Bereitstellungsanforderungen für verschiedene Knoten-Gruppen zu definieren. Dies ist besonders wichtig für Cluster mit anspruchsvollen Bootstrapping-Anforderungen, bei denen sichergestellt werden muss, dass bestimmte DaemonSets oder lokale Dienste gesund sind, bevor ein Knoten in den Scheduling-Pool aufgenommen wird. Beispielsweise können Knoten mit GPU-Ausstattung erst dann Pods annehmen, wenn die entsprechenden Treiber verifiziert sind.\u003c/p\u003e\n\u003cp\u003eDie Hauptvorteile des Node Readiness Controllers umfassen:\u003c/p\u003e\n\u003col\u003e\n\u003cli\u003e\u003cstrong\u003eBenutzerdefinierte Bereitstellungsdefinitionen\u003c/strong\u003e: Betreiber können festlegen, was \u0026ldquo;bereit\u0026rdquo; für ihre spezifische Plattform bedeutet.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eAutomatisierte Taint-Verwaltung\u003c/strong\u003e: Der Controller wendet Taints automatisch an oder entfernt sie basierend auf dem Status der Bedingungen, wodurch verhindert wird, dass Pods auf unbereiten Infrastrukturen landen.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eDeklaratives Knoten-Bootstrapping\u003c/strong\u003e: Die Verwaltung des mehrstufigen Knoteninitialisierungsprozesses wird zuverlässig gestaltet, mit klarer Sichtbarkeit in den Bootstrapping-Prozess.\u003c/li\u003e\n\u003c/ol\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDer Node Readiness Controller basiert auf der NodeReadinessRule (NRR) API, die es ermöglicht, deklarative Tore für Knoten zu definieren. Es gibt zwei Betriebsmodi:\u003c/p\u003e\n\u003cul\u003e\n\u003cli\u003e\u003cstrong\u003eKontinuierliche Durchsetzung\u003c/strong\u003e: Dieser Modus stellt sicher, dass die Bereitstellungsanforderungen während des gesamten Lebenszyklus des Knotens aufrechterhalten werden. Bei einem kritischen Fehler wird der Knoten sofort mit einem Taint versehen, um neues Scheduling zu verhindern.\u003c/li\u003e\n\u003cli\u003e\u003cstrong\u003eBootstrap-only Durchsetzung\u003c/strong\u003e: Dieser Modus ist für einmalige Initialisierungsschritte gedacht. Nach Erfüllung der Bedingungen wird die Initialisierung als abgeschlossen markiert und die Überwachung für diese Regel gestoppt.\u003c/li\u003e\n\u003c/ul\u003e\n\u003cp\u003eDer Controller reagiert auf Knotenbedingungen und führt keine eigenen Gesundheitsprüfungen durch. Dies ermöglicht eine nahtlose Integration mit bestehenden Tools und benutzerdefinierten Lösungen, wie z.B. dem Node Problem Detector (NPD). Eine zusätzliche Funktion ist der \u003cstrong\u003eDry Run\u003c/strong\u003e-Modus, der es Betreibern ermöglicht, die Auswirkungen neuer Bereitstellungsregeln zu simulieren, bevor diese tatsächlich angewendet werden.\u003c/p\u003e\n\u003cp\u003eEin Beispiel für die Anwendung des Node Readiness Controllers ist die Sicherstellung, dass ein Knoten unschedulable bleibt, bis sein CNI-Agent funktionsfähig ist. Der Controller überwacht eine benutzerdefinierte Bedingung und entfernt den Taint erst, wenn der Status auf \u0026ldquo;Wahr\u0026rdquo; gesetzt wird.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDer Node Readiness Controller stellt einen bedeutenden Fortschritt in der Verwaltung von Knotenbereitschaft in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e dar und bietet eine flexible Lösung für komplexe Anforderungen in modernen Cloud-Umgebungen. Die Entwicklung des Controllers wird fortgesetzt, und das Feedback der Community wird aktiv gesucht, um die Roadmap weiter zu verfeinern.\u003c/p\u003e\n",
      "summary": "TL;DR Der Node Readiness Controller erweitert die Funktionalität der Kubernetes-Knotenbereitschaft durch die Einführung eines deklarativen Systems zur Verwaltung von Knoten-Taints. Dies ermöglicht eine präzisere Steuerung der Knotenverfügbarkeit, indem spezifische Infrastrukturabhängigkeiten berücksichtigt werden und unterschiedliche Anforderungen an die Betriebsbereitschaft in heterogenen Clustern durchgesetzt werden können.\nHauptinhalt Im traditionellen Kubernetes-Modell wird die Eignung eines Knotens für Arbeitslasten durch einen einzigen binären \u0026ldquo;Bereit\u0026rdquo;-Zustand bestimmt. In modernen Kubernetes-Umgebungen sind jedoch komplexe Infrastrukturabhängigkeiten erforderlich, damit Knoten zuverlässig Pods hosten können. Der Node Readiness Controller wurde entwickelt, um diese Lücke zu schließen und eine dynamische Verwaltung von Taints basierend auf benutzerdefinierten Gesundheitsindikatoren zu ermöglichen.\n",
      "image": "https://ayedo.de/introducing-node-readiness-controller.png",
      "date_published": "2026-02-03T02:00:00Z",
      "date_modified": "2026-02-03T02:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","node-readiness-controller","knotenverf-gbarkeit","taint-management","infrastrukturabh-ngigkeiten","declarative-bootstrapping"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/new-conversion-from-cgroup-v1-cpu-shares-to-v2-cpu-weight/",
      "url": "https://ayedo.de/news/new-conversion-from-cgroup-v1-cpu-shares-to-v2-cpu-weight/",
      "title": "Neue Umstellung von cgroup v1 CPU-Anteilen auf v2 CPU-Gewichtung",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Umstellung von cgroup v1 auf cgroup v2 bringt eine verbesserte Umrechnungsformel für CPU-Anteile mit sich, die die Priorität von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Workloads gegenüber Systemprozessen optimiert. Die neue quadratische Formel ermöglicht eine genauere Zuordnung von CPU-Gewichtungen und verbessert die Granularität der Ressourcenverteilung innerhalb von \u003ca href=\"/kubernetes/\"\u003eContainern\u003c/a\u003e.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Migration von cgroup v1 zu cgroup v2 in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e hat wesentliche Änderungen in der Handhabung von CPU-Ressourcen zur Folge. Während cgroup v1 CPU-Anteile einfach durch die Zuweisung von CPU-Anforderungen in millicpu definiert, verwendet cgroup v2 ein neues Konzept von CPU-Gewichtungen. In cgroup v1 wurde ein Container, der 1 CPU anforderte, mit 1024 CPU-Anteilen (cpu.shares) bewertet. Im Gegensatz dazu wird in cgroup v2 ein Standardwert von 100 für CPU-Gewichtungen (cpu.weight) verwendet, was zu einer signifikanten Abweichung in der Priorität führt.\u003c/p\u003e\n\u003cp\u003eDie vorherige Umrechnungsformel, die cgroup v1-Anteile in cgroup v2-Gewichtungen übertrug, führte zu einer unzureichenden Priorisierung von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Workloads im Vergleich zu nicht-[Kubernetes]-Prozessen. Ein Container, der 1 CPU anforderte, erhielt nur ein Gewicht von etwa 39, was weniger als 40 % des Standardwerts darstellt. Diese Diskrepanz kann in ressourcenarmen Umgebungen zu Problemen führen, insbesondere wenn viele Systemprozesse außerhalb von \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e laufen.\u003c/p\u003e\n\u003cp\u003eEin weiteres Problem der alten Formel war die unzureichende Granularität bei der Zuweisung von CPU-Ressourcen. Kleinere CPU-Anfragen führten zu sehr niedrigen Gewichtungen, was die Erstellung von Sub-Cgroups innerhalb von \u003ca href=\"/kubernetes/\"\u003eContainern\u003c/a\u003e erschwerte. Beispielsweise erhielt ein Container, der 100m CPU anforderte, nur ein Gewicht von 4, was eine feingranulare Ressourcenzuteilung nahezu unmöglich machte.\u003c/p\u003e\n\u003cp\u003eDie neue Umrechnungsformel nutzt eine quadratische Funktion, um eine präzisere Zuordnung zwischen cgroup v1-Anteilen und cgroup v2-Gewichtungen zu ermöglichen. Die Formel lautet:\n$$cpu.weight = \\lceil 10^{(L^{2}/612 + 125L/612 - 7/34)} \\rceil, \\text{ wobei: } L = \\log_2(cpu.shares)$$\nDiese Formel sorgt dafür, dass kritische Punkte wie die Standardwerte für CPU-Anteile und -Gewichtungen besser abgebildet werden. Ein Container, der 1 CPU anfordert, erhält nun ein Gewicht von 102, was näher am Standardwert von 100 liegt und somit die Prioritätsbeziehung zwischen [Kubernetes]-Workloads und Systemprozessen wiederherstellt.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Implementierung der neuen Umrechnungsformel erfolgt auf der OCI-Schicht, was bedeutet, dass sie nicht direkt in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e integriert ist. Die Übernahme der neuen Formel hängt von der Akzeptanz der OCI-Runtime ab. Für die gängigen Runtimes wie runc und crun ist die neue Formel ab bestimmten Versionen verfügbar.\u003c/p\u003e\n\u003cp\u003eEs ist wichtig zu beachten, dass bestehende Anwendungen oder Überwachungstools, die auf der alten Umrechnungsformel basieren, möglicherweise Anpassungen benötigen, um die neuen Gewichtungen korrekt zu berücksichtigen. Dies könnte insbesondere für Organisationen von Bedeutung sein, die auf präzise CPU-Ressourcenzuweisungen angewiesen sind.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Einführung der neuen Umrechnungsformel für CPU-Gewichtungen in cgroup v2 verbessert die Priorisierung von [Kubernetes]-Workloads und ermöglicht eine feinere Ressourcenverteilung. Die erfolgreiche Integration dieser Änderungen in bestehende Systeme wird entscheidend für die Optimierung der Leistung und Effizienz von \u003ca href=\"/kubernetes/\"\u003eCloud-nativen\u003c/a\u003e Anwendungen sein.\u003c/p\u003e\n",
      "summary": "TL;DR Die Umstellung von cgroup v1 auf cgroup v2 bringt eine verbesserte Umrechnungsformel für CPU-Anteile mit sich, die die Priorität von Kubernetes-Workloads gegenüber Systemprozessen optimiert. Die neue quadratische Formel ermöglicht eine genauere Zuordnung von CPU-Gewichtungen und verbessert die Granularität der Ressourcenverteilung innerhalb von Containern.\nHauptinhalt Die Migration von cgroup v1 zu cgroup v2 in Kubernetes hat wesentliche Änderungen in der Handhabung von CPU-Ressourcen zur Folge. Während cgroup v1 CPU-Anteile einfach durch die Zuweisung von CPU-Anforderungen in millicpu definiert, verwendet cgroup v2 ein neues Konzept von CPU-Gewichtungen. In cgroup v1 wurde ein Container, der 1 CPU anforderte, mit 1024 CPU-Anteilen (cpu.shares) bewertet. Im Gegensatz dazu wird in cgroup v2 ein Standardwert von 100 für CPU-Gewichtungen (cpu.weight) verwendet, was zu einer signifikanten Abweichung in der Priorität führt.\n",
      "image": "https://ayedo.de/new-conversion-from-cgroup-v1-cpu-shares-to-v2-cpu-weight.png",
      "date_published": "2026-01-30T16:00:00Z",
      "date_modified": "2026-01-30T16:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","cgroup-v2","cpu-gewichtung","container-management","ressourcenverteilung","devops"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/ingress-nginx-statement-from-the-kubernetes-steering-and-security-response-committees/",
      "url": "https://ayedo.de/news/ingress-nginx-statement-from-the-kubernetes-steering-and-security-response-committees/",
      "title": "Ingress NGINX: Erklärung der Kubernetes Steering und Security Response Committees",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eIngress NGINX wird im März 2026 eingestellt, was für viele \u003ca href=\"https://www.example.com/cloud-native/\"\u003eCloud-Native-\u003c/a\u003e Umgebungen erhebliche Sicherheitsrisiken birgt. Nutzer sind aufgefordert, sofort auf Alternativen wie Gateway API oder andere Ingress-Controller zu migrieren, da nach der Einstellung keine Sicherheitsupdates oder Bugfixes mehr bereitgestellt werden.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eIngress NGINX ist ein weit verbreiteter Ingress-Controller für \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e, der in etwa 50 % der Cloud-Native-Umgebungen eingesetzt wird. Aufgrund eines akuten Mangels an Beiträgen und Maintainers wurde die Entscheidung getroffen, das Projekt im März 2026 einzustellen. Diese Maßnahme erfolgt nach mehreren Jahren öffentlicher Warnungen über die Notwendigkeit, die Wartung des Projekts zu sichern. Ab dem Zeitpunkt der Einstellung wird es keine neuen Releases, Bugfixes oder Sicherheitsupdates mehr geben.\u003c/p\u003e\n\u003cp\u003eDie Entscheidung zur Einstellung des Projekts basiert auf der Tatsache, dass trotz wiederholter Aufrufe zur Unterstützung das Ingress NGINX-Projekt nur von ein oder zwei Personen in ihrer Freizeit aufrechterhalten wurde. Diese unzureichende Wartung hat dazu geführt, dass die Sicherheitsstandards nicht mehr aufrechterhalten werden können. Die Flexibilität, die Ingress NGINX einst bot, hat sich nun als Belastung erwiesen, die nicht mehr bewältigt werden kann. Technische Schulden und grundlegende Designentscheidungen haben zu Sicherheitsanfälligkeiten geführt, die nicht länger ignoriert werden können.\u003c/p\u003e\n\u003cp\u003eNutzer, die weiterhin auf Ingress NGINX setzen, laufen Gefahr, ihre Systeme und Daten zu gefährden. Es ist wichtig, proaktiv zu überprüfen, ob man auf Ingress NGINX angewiesen ist, was beispielsweise durch den Befehl \u003ccode\u003ekubectl get pods --all-namespaces --selector app.kubernetes.io/name=ingress-nginx\u003c/code\u003e geschehen kann.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Migration zu Alternativen wie der Gateway API oder anderen Ingress-Controllern erfordert sorgfältige Planung und Engineering-Ressourcen. Diese Alternativen sind keine direkten Drop-in-Ersatzlösungen, was bedeutet, dass Nutzer ihre bestehenden Implementierungen anpassen müssen. Die Herausforderung besteht darin, dass viele Organisationen möglicherweise nicht sofort erkennen, dass sie betroffen sind, da bestehende Deployments weiterhin funktionieren, bis ein Sicherheitsvorfall eintritt.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie Einstellung von Ingress NGINX stellt eine kritische Herausforderung für viele \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e-Nutzer dar. Es ist unerlässlich, jetzt Maßnahmen zu ergreifen, um die Sicherheit der Cloud-Native-Umgebungen zu gewährleisten und die Migration zu planen, um zukünftige Risiken zu minimieren.\u003c/p\u003e\n",
      "summary": "TL;DR Ingress NGINX wird im März 2026 eingestellt, was für viele Cloud-Native- Umgebungen erhebliche Sicherheitsrisiken birgt. Nutzer sind aufgefordert, sofort auf Alternativen wie Gateway API oder andere Ingress-Controller zu migrieren, da nach der Einstellung keine Sicherheitsupdates oder Bugfixes mehr bereitgestellt werden.\nHauptinhalt Ingress NGINX ist ein weit verbreiteter Ingress-Controller für Kubernetes, der in etwa 50 % der Cloud-Native-Umgebungen eingesetzt wird. Aufgrund eines akuten Mangels an Beiträgen und Maintainers wurde die Entscheidung getroffen, das Projekt im März 2026 einzustellen. Diese Maßnahme erfolgt nach mehreren Jahren öffentlicher Warnungen über die Notwendigkeit, die Wartung des Projekts zu sichern. Ab dem Zeitpunkt der Einstellung wird es keine neuen Releases, Bugfixes oder Sicherheitsupdates mehr geben.\n",
      "image": "https://ayedo.de/ingress-nginx-statement-from-the-kubernetes-steering-and-security-response-committees.png",
      "date_published": "2026-01-29T00:00:00Z",
      "date_modified": "2026-01-29T00:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","ingress-nginx","security","migration","gateway-api","ingress-controller"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/introducing-kthena-llm-inference-for-the-cloud-native-era/",
      "url": "https://ayedo.de/news/introducing-kthena-llm-inference-for-the-cloud-native-era/",
      "title": "Einführung in Kthena: LLM-Inferenz für die cloudnative Ära",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eKthena ist ein neues cloud-natives System für die Inferenz von Large Language Models (LLMs), das speziell für \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e entwickelt wurde. Es bietet eine intelligente Orchestrierung, verbesserte Ressourcennutzung und flexible Steuerung über die gesamte KI-Lebenszyklus, um Herausforderungen wie niedrige Ressourcenauslastung und komplexes Multi-Modell-Management zu bewältigen.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eKthena stellt eine innovative Lösung für die Herausforderungen dar, die mit der Bereitstellung von LLMs in Produktionsumgebungen auf \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e verbunden sind. Die Entwicklung von Kthena zielt darauf ab, die Effizienz und Flexibilität bei der Inferenz von LLMs zu steigern, indem es eine intelligente Schicht über bestehenden Inferenz-Engines wie vLLM und SGLang bildet. Diese Integration in \u003ca href=\"/kubernetes/\"\u003eKubernetes\u003c/a\u003e ermöglicht eine nahtlose Verwaltung und Orchestrierung von Anfragen.\u003c/p\u003e\n\u003cp\u003eDie Hauptkomponenten von Kthena sind der Kthena Router und der Kthena Controller Manager. Der Router fungiert als leistungsstarker Multi-Modell-Router, der alle Inferenzanfragen intelligent an die entsprechenden ModelServers verteilt. Der Controller Manager übernimmt die Aufgaben der Arbeitslastorchestrierung und Lebenszyklusverwaltung, indem er benutzerdefinierte Ressourcendefinitionen (CRDs) verwaltet und die Ressourcen in Echtzeit entsprechend der deklarierten Absichten bereitstellt.\u003c/p\u003e\n\u003cp\u003eKthena adressiert mehrere kritische Herausforderungen in der LLM-Bereitstellung. Eine der größten Herausforderungen ist die niedrige Ressourcennutzung, die durch den dynamischen Speicherbedarf der LLM-Inferenz verursacht wird. Traditionelle Lastenausgleichsmechanismen wie Round-Robin sind nicht in der Lage, diese Anforderungen zu erkennen, was zu ineffizienten Ressourcennutzungen führt. Kthena optimiert die Ressourcennutzung durch topology-aware Scheduling und KV Cache-aware Routing.\u003c/p\u003e\n\u003cp\u003eEin weiteres Problem ist der Trade-off zwischen Latenz und Durchsatz. Kthena ermöglicht eine native Unterstützung für das Prefill-Decode (PD) Disaggregation, was eine separate Skalierung der rechenintensiven Prefill- und speichergebundenen Decode-Phasen erlaubt. Diese Flexibilität verbessert die Gesamtleistung und minimiert die Latenzzeiten.\u003c/p\u003e\n\u003cp\u003eDarüber hinaus bietet Kthena eine vereinfachte Verwaltung von Multi-Modell-Umgebungen. Unternehmen können mehrere Modelle und Versionen gleichzeitig bedienen, ohne dass es zu starren Zuordnungen zwischen AI Gateways und Modellen kommt. Kthena unterstützt dynamisches Routing und ein faires Scheduling, um die Effizienz zu maximieren.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Architektur von Kthena umfasst eine hierarchische Arbeitslastarchitektur, die eine einheitliche API bietet und die Verwaltung komplexer Bereitstellungen vereinfacht. Die Implementierung von Gang Scheduling und topology-aware Affinität minimiert die Latenz durch optimierte Platzierung von Pods im Netzwerk. Kthena unterstützt auch eine Vielzahl von Routing-Algorithmen, die auf spezifische Anforderungen zugeschnitten sind, wie z.B. Least Request und Fairness Scheduling.\u003c/p\u003e\n\u003cp\u003eDie Bereitstellung erfolgt nahtlos über vordefinierte Templates für gängige Modelle, die die erforderlichen Routing- und Lebenszyklusressourcen automatisch generieren. Die Unterstützung für LoRA-Hot-Swapping ermöglicht eine unterbrechungsfreie Anpassung und Routing von LoRA-Adaptern.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eKthena stellt eine umfassende Lösung für die Herausforderungen der LLM-Inferenz in cloud-nativen Umgebungen dar. Mit seiner intelligenten Orchestrierung und flexiblen Ressourcenverwaltung könnte Kthena eine entscheidende Rolle in der Weiterentwicklung von \u003ca href=\"/kubernetes/\"\u003eMLOps\u003c/a\u003e und der Bereitstellung von KI-Anwendungen spielen.\u003c/p\u003e\n",
      "summary": "TL;DR Kthena ist ein neues cloud-natives System für die Inferenz von Large Language Models (LLMs), das speziell für Kubernetes entwickelt wurde. Es bietet eine intelligente Orchestrierung, verbesserte Ressourcennutzung und flexible Steuerung über die gesamte KI-Lebenszyklus, um Herausforderungen wie niedrige Ressourcenauslastung und komplexes Multi-Modell-Management zu bewältigen.\nHauptinhalt Kthena stellt eine innovative Lösung für die Herausforderungen dar, die mit der Bereitstellung von LLMs in Produktionsumgebungen auf Kubernetes verbunden sind. Die Entwicklung von Kthena zielt darauf ab, die Effizienz und Flexibilität bei der Inferenz von LLMs zu steigern, indem es eine intelligente Schicht über bestehenden Inferenz-Engines wie vLLM und SGLang bildet. Diese Integration in Kubernetes ermöglicht eine nahtlose Verwaltung und Orchestrierung von Anfragen.\n",
      "image": "https://ayedo.de/introducing-kthena-llm-inference-for-the-cloud-native-era.png",
      "date_published": "2026-01-28T15:00:00Z",
      "date_modified": "2026-01-28T15:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["cncf","cloud-native","open-source","kthena","llm-inferenz","kubernetes","ressourcennutzung"],
      "language": "de"
    },{
      "id": "https://ayedo.de/news/experimenting-with-gateway-api-using-kind/",
      "url": "https://ayedo.de/news/experimenting-with-gateway-api-using-kind/",
      "title": "Experimentieren mit Gateway API mit kind",
      "content_html": "\u003ch2 id=\"tldr\"\u003eTL;DR\u003c/h2\u003e\n\u003cp\u003eDie Einrichtung eines lokalen \u003ca href=\"/kubernetes/\"\u003eKubernetes-Clusters\u003c/a\u003e mit der \u003ca href=\"/kubernetes/\"\u003eGateway API\u003c/a\u003e über das Tool kind ermöglicht es Entwicklern, die Konzepte der Gateway API zu erlernen und zu testen. Diese Anleitung beschreibt die Schritte zur Installation und Konfiguration der benötigten Komponenten in einer nicht-produktiven Umgebung.\u003c/p\u003e\n\u003ch2 id=\"hauptinhalt\"\u003eHauptinhalt\u003c/h2\u003e\n\u003cp\u003eDie Gateway API ist ein neues Konzept zur Verwaltung von Netzwerkrouten in Kubernetes, das eine flexiblere und leistungsfähigere Steuerung des Datenverkehrs ermöglicht. Um mit der Gateway API zu experimentieren, wird empfohlen, ein lokales Kubernetes-Cluster mit kind (Kubernetes in Docker) einzurichten. Diese Umgebung ist ideal für Lern- und Testzwecke, da sie die Komplexität einer Produktionsumgebung vermeidet.\u003c/p\u003e\n\u003cp\u003eZunächst sind einige Voraussetzungen erforderlich: Docker, kubectl (das Kubernetes-Befehlszeilenwerkzeug), kind und curl sollten auf dem lokalen System installiert sein. Der erste Schritt besteht darin, ein neues kind-Cluster zu erstellen, was mit dem Befehl \u003ccode\u003ekind create cluster\u003c/code\u003e durchgeführt wird. Dies erstellt ein ein-Knoten-Kubernetes-Cluster innerhalb eines Docker-Containers.\u003c/p\u003e\n\u003cp\u003eNach der Cluster-Erstellung muss das \u003ca href=\"/kubernetes/\"\u003ecloud-provider-kind\u003c/a\u003e installiert werden. Dieses Tool stellt zwei Hauptkomponenten bereit: einen LoadBalancer-Controller, der Adressen für LoadBalancer-Dienste zuweist, und einen Gateway API-Controller, der die Spezifikation der Gateway API implementiert. Die Installation erfolgt durch das Ausführen eines Docker-Containers, der cloud-provider-kind ausführt.\u003c/p\u003e\n\u003cp\u003eSobald cloud-provider-kind läuft, können die Gateway API-Ressourcen experimentell verwendet werden. Das Tool provisioniert automatisch eine GatewayClass mit dem Namen cloud-provider-kind, die zur Erstellung des Gateways verwendet wird. Es ist wichtig zu beachten, dass kind kein Cloud-Anbieter ist, aber Funktionen bereitstellt, die eine cloud-fähige Umgebung simulieren.\u003c/p\u003e\n\u003cp\u003eUm ein Gateway zu erstellen, wird ein Manifest angewendet, das einen neuen Namespace namens gateway-infra erstellt und ein Gateway konfiguriert, das auf Port 80 lauscht. Dieses Gateway akzeptiert HTTP-Routen mit Hostnamen, die dem Muster *.exampledomain.example entsprechen, und erlaubt Routen aus allen Namespaces. Nach der Anwendung des Manifests sollte das Gateway mit dem Befehl \u003ccode\u003ekubectl get gateway -n gateway-infra gateway\u003c/code\u003e überprüft werden, um sicherzustellen, dass es korrekt programmiert ist und eine Adresse zugewiesen wurde.\u003c/p\u003e\n\u003cp\u003eUm die Gateway-Konfiguration zu testen, wird eine einfache Echo-Anwendung bereitgestellt, die auf Port 3000 lauscht und Details der eingehenden Anfragen zurückgibt. Diese Anwendung wird in einem neuen Namespace namens demo bereitgestellt. Ein weiteres Manifest definiert den Dienst und das Deployment für diese Anwendung.\u003c/p\u003e\n\u003ch2 id=\"technische-detailsimplikationen\"\u003eTechnische Details/Implikationen\u003c/h2\u003e\n\u003cp\u003eDie Verwendung von kind zur Einrichtung eines Kubernetes-Clusters bietet Entwicklern eine kostengünstige und flexible Möglichkeit, mit neuen Kubernetes-Funktionen zu experimentieren, ohne die Risiken einer Produktionsumgebung einzugehen. Die Gateway API ermöglicht eine differenziertere Steuerung des Datenverkehrs, was für komplexe Anwendungen von Vorteil ist. Die Integration von cloud-provider-kind simuliert eine cloud-ähnliche Umgebung, was die Entwicklung und das Testen von cloud-nativen Anwendungen erleichtert.\u003c/p\u003e\n\u003ch2 id=\"fazitausblick\"\u003eFazit/Ausblick\u003c/h2\u003e\n\u003cp\u003eDie experimentelle Nutzung der Gateway API in einem lokal eingerichteten Kubernetes-Cluster bietet wertvolle Einblicke in moderne Netzwerktechnologien innerhalb von Kubernetes. Mit der fortschreitenden Entwicklung der Gateway API wird erwartet, dass diese Technologien in zukünftigen Versionen von Kubernetes weiter verfeinert und optimiert werden.\u003c/p\u003e\n",
      "summary": "TL;DR Die Einrichtung eines lokalen Kubernetes-Clusters mit der Gateway API über das Tool kind ermöglicht es Entwicklern, die Konzepte der Gateway API zu erlernen und zu testen. Diese Anleitung beschreibt die Schritte zur Installation und Konfiguration der benötigten Komponenten in einer nicht-produktiven Umgebung.\nHauptinhalt Die Gateway API ist ein neues Konzept zur Verwaltung von Netzwerkrouten in Kubernetes, das eine flexiblere und leistungsfähigere Steuerung des Datenverkehrs ermöglicht. Um mit der Gateway API zu experimentieren, wird empfohlen, ein lokales Kubernetes-Cluster mit kind (Kubernetes in Docker) einzurichten. Diese Umgebung ist ideal für Lern- und Testzwecke, da sie die Komplexität einer Produktionsumgebung vermeidet.\n",
      "image": "https://ayedo.de/experimenting-with-gateway-api-using-kind.png",
      "date_published": "2026-01-28T00:00:00Z",
      "date_modified": "2026-01-28T00:00:00Z",
      "authors": [{"name":"Mira","url":"https://ayedo.de/"}],
      "tags": ["kubernetes","cloud-native","gateway-api","kind","docker","cloud-provider","local-development"],
      "language": "de"
    },
  ]
}

