Video-Verarbeitung
Von Bare-Metal-Basteln zu elastischer Video-Infrastruktur: Wie ayedo Streambase für große …

E-Commerce-Agenturen wachsen oft schneller als ihre Infrastruktur.
Nordlicht Commerce ist spezialisiert auf Shopware-Projekte für mittelständische Handelsunternehmen und D2C-Marken. Zwölf Kundenshops im Betrieb, sechs eigene Plugins im Shopware Store, ein wachsendes Projektgeschäft – fachlich stark, technisch engagiert.
Was lange funktionierte, wurde mit steigender Kundenanzahl und höheren SLA-Anforderungen zum Risiko.
Über Jahre hatte sich ein typisches Agentur-Setup entwickelt.
Jeder Shop lief auf einem eigenen Managed-Hosting-Paket bei unterschiedlichen Webhostern. PHP-Versionen variierten. MariaDB-Konfigurationen unterschieden sich. Redis war bei manchen Shops vorhanden, bei anderen nicht. Elasticsearch-Versionen waren nicht einheitlich.
Jeder Shop war technisch ein Unikat.
Für kleinere Projekte war das handhabbar. Mit steigenden Anforderungen wurde es zur operativen Belastung.
Wenn ein Plugin bei Kunde A funktionierte, bedeutete das nicht, dass es bei Kunde B stabil lief. Debugging verschlang überproportional viel Zeit – nicht wegen fehlerhaften Codes, sondern wegen inkonsistenter Umgebungen.
Noch kritischer war das Thema Verfügbarkeit.
Jeder Shop lief auf einem einzelnen Server. Kein Failover, keine horizontale Skalierung. Bei Wartungsarbeiten oder Traffic-Spitzen – etwa zu Black Friday oder bei Kampagnenstarts – waren Performance-Probleme oder Ausfälle unvermeidlich.
Ein Kunde plante eine TV-Kampagne und fragte, ob der Shop den zehnfachen Traffic verkraften würde. Die ehrliche Antwort lautete: wahrscheinlich nicht.
Parallel dazu fehlte eine saubere Entwicklungsumgebung für die Plugin-Teams. Lokal wurde mit SQLite getestet, ohne Redis, ohne Elasticsearch, ohne Queue-Systeme. Probleme traten erst nach dem Deployment auf – also beim Kunden.
Staging-Umgebungen existierten nur für wenige Großkunden. Der Rest ging direkt in Production.
Deployments erfolgten per SSH und manuellen Skripten. Rollbacks waren Handarbeit. Bei einem missglückten Update saß der verantwortliche Entwickler bis spät in der Nacht am System.
Der Wendepunkt kam, als zwei Großkunden gleichzeitig SLAs mit 99,9 % Verfügbarkeit forderten. Mit Single-Server-Hosting war das nicht darstellbar.
Die Frage war nicht mehr „Wie optimieren wir?", sondern: Wie professionalisieren wir grundlegend?
Unser Ziel war nicht, die bestehenden Server zu verbessern. Unser Ziel war, eine Plattform zu bauen.
Eine standardisierte, hochverfügbare Kubernetes -basierte E-Commerce-Infrastruktur, auf der alle Shops konsistent betrieben werden – isoliert, skalierbar und automatisiert.
Wir haben für Nordlicht eine zentrale Managed Kubernetes Plattform aufgebaut, auf der jeder Kundenshop als eigenständiges Deployment läuft.
Der entscheidende Unterschied: Alle Shops teilen sich die Plattform – aber nicht ihre Ressourcen.
Jeder Shop läuft in einem dedizierten Namespace mit eigenen Ressourcenlimits. Horizontal Pod Autoscaling sorgt dafür, dass bei Traffic-Spitzen automatisch zusätzliche Pods gestartet werden.
Ob normaler Werktag oder Black Friday – die Plattform passt sich dynamisch an.
Beim letzten Black Friday skalierte der größte Shop automatisch auf das Achtfache seiner normalen Kapazität – ohne manuellen Eingriff.
Datenbanken laufen als hochverfügbare Cluster mit automatischem Failover und Point-in-Time-Recovery. Redis übernimmt Session-Management und Caching. OpenSearch oder alternativ Typesense sorgen für performante Produktsuche. RabbitMQ entkoppelt zeitkritische Shop-Operationen von Hintergrundjobs wie E-Mail-Versand oder Indexierung.
Das Ergebnis: Kein einzelner Server mehr als Single Point of Failure.
Ein wesentlicher Hebel war die Integration zusätzlicher Dienste direkt auf der Plattform.
PDF-Generierung über Gotenberg. Geocoding und Routing mit Nominatim und OSRM. Server-Side Tracking über einen selbst betriebenen Google Tag Manager Container. Mail-Testing mit Mailhog. Sicherer Datenaustausch über SFTPGo. KI-gestützte Textgenerierung via lokalem LLM (Ollama).
Damit eliminierte Nordlicht nicht nur externe SaaS-Kosten, sondern auch datenschutzrechtliche Risiken durch US-Dienste.
Alle Dienste laufen auf europäischer Infrastruktur – vollständig kontrolliert.
ArgoCD übernimmt das Deployment aller Shops. Shop-Updates und Plugin-Releases werden über Git-Commits ausgelöst und automatisch ausgerollt. Health Checks prüfen die Integrität. Bei Problemen erfolgt ein automatischer Rollback.
Kein manuelles SSH-Deployment mehr. Keine nächtlichen Notfall-Rollbacks.
Für das Plugin-Team war dies ein Quantensprung.
Jeder Plugin-Branch kann automatisch eine vollständige Shop-Instanz mit MariaDB, Redis, OpenSearch, RabbitMQ und allen Zusatzdiensten starten – identisch zur Produktionsumgebung.
Fehler werden erkannt, bevor sie beim Kunden auftreten.
Die Entwicklung erfolgt nicht mehr im Blindflug, sondern unter realistischen Bedingungen.
Der größte Effekt entstand durch die Vereinheitlichung.
Statt zwölf individueller Server-Setups bei fünf Hostern gibt es nun eine einheitliche Plattform. Konfigurationen sind identisch. Unterschiede bestehen nur noch in den shop-spezifischen Parametern wie Domain, Theme oder Plugin-Konfiguration.
Ein neuer Kundenshop wird aus einem Template provisioniert und ist innerhalb einer Stunde produktionsbereit.
Was früher eine Woche Vorlauf brauchte, ist heute ein standardisierter Prozess.
Nordlicht erreicht heute vertraglich zugesicherte 99,9 % Verfügbarkeit.
Plugin-Bugs nach Deployment sind um über 80 % gesunken, weil Tests in realistischen Umgebungen stattfinden.
Deployments dauern Minuten statt Stunden – mit automatischem Rollback.
Die monatlichen Kosten für externe SaaS-Dienste sind um rund 60 % gesunken.
Neue Kundenprojekte können schneller angenommen werden, weil Infrastruktur kein Engpass mehr ist.
Und vielleicht am wichtigsten: Nordlicht kann nun Kampagnen mit Traffic-Spitzen selbstbewusst begleiten – statt sie vorsichtig auszubremsen.
E-Commerce-Agenturen unterschätzen oft, wie sehr Infrastruktur die Qualität ihrer Projekte beeinflusst.
Wer zwölf Shops individuell betreibt, skaliert linear mit Komplexität. Wer eine standardisierte Plattform betreibt, skaliert mit Prozessen.
Kubernetes liefert Isolation und Skalierung. GitOps sorgt für Reproduzierbarkeit. Self-Hosted Zusatzdienste schaffen Souveränität. Managed Betrieb entlastet das Team.
So wird aus einer Agentur ein Plattformbetreiber.
Wenn ihr mehrere Shopware- oder E-Commerce-Projekte betreibt und euch mit inkonsistenten Umgebungen, manuellen Deployments oder fehlender Hochverfügbarkeit herumschlagt, ist das kein individuelles Problem – sondern ein Plattformthema.
Mit der ayedo Managed Kubernetes Plattform bauen wir euch eine standardisierte, hochverfügbare E-Commerce-Infrastruktur, auf der Shops, Plugins und Zusatzdienste konsistent und souverän betrieben werden können – ohne US-SaaS-Abhängigkeit und ohne nächtliche SSH-Rettungsaktionen.
Lasst uns gemeinsam prüfen, wie eure aktuelle Hosting-Architektur aussieht – und wie daraus eine skalierbare Plattform werden kann, die SLAs ermöglicht statt verhindert.
Wir helfen Ihnen, diesen Use Case auf Ihrer Infrastruktur zu realisieren – skalierbar, sicher und DSGVO-konform.
Von Bare-Metal-Basteln zu elastischer Video-Infrastruktur: Wie ayedo Streambase für große …
Von VM-Betrieb zu Plattform: Wie ayedo Planwerk zu skalierbarem, auditierbarem SaaS-Betrieb geführt …
Von GPU-Engpässen zu Industrial-Scale MLOps: Wie ayedo Sensoriq zur Kubernetes-basierten …