Monitoring
Wir haben ein Auge auf Ihre Container
- Application Performance Monitoring
- Infrastruktur Monitoring
- Logging und Tracing
ab 289.95 € pro Monat
ab 289.95 € pro Monat
Status Monitoring
Auch in Zeiten von Containern hoch relevant: Up/Down Status von Nodes, Filesystem-, CPU- und Memory-Usage, Erreichbarkeit von Ports, Status von TLS Zertfikaten.
Performance Monitoring
Mit Hilfe von Prometheus können zahlreiche Metriken Ihrer Anwendungen aggregiert und in Kontext gesetzt werden um den Zustand Ihrer Anwendungen besser zu verstehen.
Logs
Logs von Containern und Nodes werden zentral mit Loki aggregiert und mit Hilfe von Labels durchsuchbar gemacht.
Traces
Schicken Sie Traces aus Ihren Anwendungen an Tempo um zu analysieren, wo Fehler im Stack Ihrer Anwendungen auftauchen.
Managed Monitoring ist eine Lösung für umfassende Monitoring von Servern, Containern und Anwendungen. Wir bieten verschiedene Überwachungs-Mechanismen auf mehreren Ebenen, die den Zustand Ihrer gesamten Infrastruktur sichtbar machen können.
Je nach gewähltem Support Paket bieten wir erweiterten Eskalations-Support, d.h. im Fehlerfall werden wir aktiv.
Eskalations-Support | ✅ |
Status-Monitoring | ✅ |
Endpunkt-Monitoring | ✅ |
Application Performance Monitoring | ✅ |
Preis (zzgl. USt.) | ab 1.95 € / Endpunkt / Monat |
Unter Container-Monitoring versteht man die kontinuierliche Erfassung von Metriken und die Verfolgung des Zustands von containerisierten Anwendungen und Microservices-Umgebungen, um ihren Zustand und ihre Leistung zu verbessern und ihren reibungslosen Betrieb sicherzustellen. Container haben sich zu einer der beliebtesten Methoden für die Bereitstellung von Anwendungen entwickelt und bringen Vorteile mit sich, wie z. B. die Erleichterung der Portabilität von Anwendungen und die Verbesserung der betrieblichen Ausfallsicherheit. In der 2018 durchgeführten Umfrage der Cloud Native Computing Foundation (CNCF) gaben 73 % der Befragten an, dass sie derzeit Container in der Produktion einsetzen, um die Agilität zu erhöhen und das Innovationstempo zu beschleunigen. Container-Monitoring ist eine Untergruppe von Observability - ein Begriff, der oft neben Monitoring verwendet wird und auch Log-Aggregation und -Analysen, Tracing, Benachrichtigungen und Visualisierungen umfasst. Im Vergleich zu herkömmlichen Überwachungslösungen bieten moderne Überwachungslösungen robuste Funktionen zum Aufspüren potenzieller Fehler sowie granulare Einblicke in das Containerverhalten. Auf dieser Seite erfahren Sie, warum, wann und wie Sie Ihre Container überwachen sollten, und auf welche Herausforderungen und Lösungen Sie achten sollten.
Der Einblick in Metriken, Protokolle und Traces ist für Betreiber von Container-Plattformen von großem Nutzen. Das Verständnis dessen, was nicht nur auf Cluster- oder Host-Ebene, sondern auch innerhalb der Container-Laufzeit und -Anwendung geschieht, hilft Unternehmen dabei, besser informierte Entscheidungen zu treffen, z. B. wann Instanzen/Aufgaben/Pods ein- und ausgesteuert werden sollen, wann Instanztypen geändert werden sollen und wann Kaufoptionen (On-Demand, reserviert und Spot) bestehen. DevOps- oder Systemingenieure können auch die Effizienz verbessern und die Lösungsfindung beschleunigen, indem sie Automatisierungen hinzufügen, z. B. durch die Verwendung von Warnmeldungen zur dynamischen Auslösung von Skalierungsvorgängen. Durch die aktive Überwachung der Speicherauslastung können Sie beispielsweise einen Schwellenwert ermitteln und Betreiber benachrichtigen, wenn sich der Ressourcenverbrauch den Ressourcengrenzen nähert, oder Sie können automatisch zusätzliche Knoten hinzufügen, bevor die verfügbare CPU- und Speicherkapazität erschöpft ist. Wenn Sie eine Regel festlegen, die z. B. bei einer Auslastung von 70 % einen Alarm auslöst, können Sie dem Cluster dynamisch Instanzen hinzufügen, wenn der Schwellenwert erreicht ist.
Trotz der Beliebtheit von Containern für die Bereitstellung moderner Anwendungen ergab die CNCF-Umfrage 2018, dass 34 % der Befragten die Überwachung als eine der größten Herausforderungen bei der Einführung von Containern nannten. Die Einführung eines Container-Überwachungssystems ist im Vergleich zu einer herkömmlichen Überwachungslösung für virtualisierte Infrastrukturen mit einzigartigen Herausforderungen verbunden. Zu diesen Herausforderungen gehören:
Sie lassen sich schnell bereitstellen und ebenso schnell wieder zerstören. Dieses Verhalten ist einer der Hauptvorteile bei der Verwendung von Containern, aber es kann schwierig sein, Änderungen zu verfolgen, insbesondere in komplexen Systemen mit hoher Fluktuation.
Ressourcen wie Arbeitsspeicher und CPU werden von einem oder mehreren Hosts gemeinsam genutzt, was die Überwachung des Ressourcenverbrauchs auf dem physischen Host erschwert und somit einen guten Überblick über die Leistung der Container oder den Zustand der Anwendung erschwert.
Herkömmliche Überwachungsplattformen, selbst solche, die sich gut für virtualisierte Umgebungen eignen, bieten unter Umständen keinen ausreichenden Einblick in Metriken, Protokolle und Traces, die für die Überwachung und Fehlersuche in Bezug auf den Zustand und die Leistung von Containern erforderlich sind.
Um Entwicklungszyklen zu beschleunigen und Governance in ihre Pipelines für kontinuierliche Integration und kontinuierliche Lieferung (CI/CD) einzubauen, können Teams reaktive Tools und Skripte in ihre Standard-Devops-Orchestrierung einbauen, indem sie Metriken aus ihrer Überwachungslösung nutzen oder Community-Projekte wie AutoPilot von Portworx zur Hilfe nehmen. Autopilot ist eine Überwachungs- und Reaktions-Engine. Sie beobachtet die Metriken der von ihr überwachten Anwendungen und reagiert auf der Grundlage bestimmter Bedingungen, die in diesen Metriken erfüllt sind, und ändert die Laufzeitumgebung der Anwendung. Es wurde für die Überwachung von zustandsabhängigen Anwendungen entwickelt, die auf Kubernetes bereitgestellt werden, und ist ein gutes Beispiel für ein Projekt, das es Unternehmen erleichtern soll, metrikbasierte Entscheidungen zu treffen und ihre betriebliche Resilienz zu stärken.
Unternehmen, die in Chaos Engineering investiert haben, müssen Fehlerbereiche isolieren und profilieren, um ihre Tools für die Risikoresilienz zu ergänzen. Chaos Monkey, das ursprünglich von Netflix entwickelt wurde, beendet nach dem Zufallsprinzip virtuelle Maschineninstanzen und Container, die in Ihrer Produktionsumgebung laufen. Auf diese Weise werden die Ingenieure häufiger mit Fehlern konfrontiert und können belastbare Dienste entwickeln. Wenn man einem System Ausfälle zufügt, aber keine guten Metriken hat, mit denen man sie verfolgen kann, bleibt eigentlich nur das Chaos.
Die Open-Source-Datenreihen-Visualisierungssuite Grafana ist in vielen Szenarien eine gute Wahl, da sie eine lange Liste von Datenquellen unterstützt, darunter Prometheus, Graphite und Amazon CloudWatch, um nur einige zu nennen. Während die Kernkompetenz von Grafana bisher in der Visualisierung und Alarmierung von Metriken lag, ermöglicht die kürzlich hinzugefügte Unterstützung für Logs Analytics mit Datenquellen für InfluxDB und Elasticsearch die Korrelation von Metrikdaten mit Log-Events und bietet eine verbesserte Ursachenanalyse. Neben Grafana gibt es viele kostenpflichtige Lösungen für das Container-Monitoring, die jedoch in der Regel die Verwendung spezifischer Agenten oder Datensammlungsprotokolle erfordern.
Die Verknüpfung unterschiedlicher Messdatenquellen erfordert eine robuste Infrastrukturüberwachungsplattform, die einen einzigen Überblick über die Daten aus verschiedenen Quellen bietet. Es erfordert auch viel Überlegung und Planung von Ihrem Anwendungsentwicklungsteam, um sicherzustellen, dass die Daten korreliert werden können, um ein einfaches Debugging von Anfang bis Ende zu ermöglichen.
Konzeptuell werden containerisierte Anwendungen auf ähnliche Weise überwacht wie herkömmliche Anwendungen. Es werden Daten auf verschiedenen Ebenen des Stacks für unterschiedliche Zwecke benötigt. Sie messen und sammeln Metrikdaten sowohl im Container selbst als auch auf der Infrastrukturebene für ein besseres Ressourcenmanagement, z. B. bei Skalierungsaktivitäten. Außerdem benötigen Sie anwendungsspezifische Daten, ein Leistungsmanagement der Anwendung und Tracing-Informationen für die Fehlersuche in der Anwendung.
Robuste Beobachtbarkeit und einfaches Debugging sind der Schlüssel zum Aufbau einer Microservices-Architektur. Mit dem Wachstum Ihres Systems steigt auch die Komplexität bei der Überwachung der gesamten Anwendung. Traditionell würden Sie einen unabhängigen Dienst erstellen, der einen einzigen Zweck erfüllt und mit anderen Diensten kommuniziert, um eine größere Aufgabe zu erfüllen. Mithilfe eines SDK-Ansatzes können Sie Dienste so erstellen, dass sie neben der Geschäftslogik auch Netzwerkfunktionen wie die Kommunikation zwischen Diensten, Verkehrssteuerung, Wiederholungslogik und vieles mehr enthalten. Diese Aufgaben werden jedoch sehr komplex, wenn Sie Hunderte von Diensten haben, die verschiedene Programmiersprachen in unterschiedlichen Teams verwenden. An dieser Stelle kommt Service Mesh ins Spiel.
Source: AWS
Ein Service Mesh verwaltet die Kommunikationsschicht Ihres Microservices-Systems durch die Implementierung einer Softwarekomponente als Sidecar-Proxy. Diese Softwarekomponente führt Netzwerkfunktionen, Verkehrssteuerung, Verfolgung und Protokollierung durch. Jeder Dienst hat seinen eigenen Proxy-Dienst und alle Proxy-Dienste bilden das Mesh. Jeder Dienst kommuniziert nicht direkt mit anderen Diensten, sondern nur mit seinem eigenen Proxy. Die Kommunikation zwischen den Diensten findet zwischen den Proxys statt. So sieht die Architektur aus:
Source: AWS
Mit einem Service Mesh können Sie ein Netzwerk von Microservices aufbauen und den größten Teil der Netzwerkschicht auslagern, um die Verwaltung und Beobachtbarkeit zu optimieren. Wenn Probleme auftreten, können Sie die Ursache des Problems schnell ermitteln. Hier sind einige der Vorteile der Verwendung von Service Mesh:
Source: AWS
Der Zweck der Überwachung Ihrer Anwendung besteht darin, Überwachungs- und Betriebsdaten in Form von Protokollen, Metriken, Ereignissen und Traces zu sammeln, um Probleme schnell zu erkennen und darauf zu reagieren und Unterbrechungen zu minimieren. Wenn Ihr Überwachungssystem gut funktioniert, sollten Sie idealerweise in der Lage sein, auf einfache Weise Alarme zu erstellen und automatische Aktionen durchzuführen, wenn Schwellenwerte erreicht werden. In den meisten Fällen sind statische Alarme ausreichend, aber für Anwendungen, die ein organisches Wachstum, ein zyklisches oder saisonales Verhalten aufweisen (z. B. Anfragen, die tagsüber Spitzenwerte erreichen und nachts abklingen), sind mehr Überlegungen und Kenntnisse erforderlich, um den Schwellenwert für die Implementierung eines wirksamen statischen Alarms zu definieren. Die allgemeine Herausforderung besteht darin, den richtigen Schwellenwert zu finden - entweder ist er zu weit gefasst und birgt das Risiko, dass Probleme übersehen werden, oder er ist zu eng gefasst und verursacht zu viele Fehlalarme.
Dieses Rätsel lässt sich durch maschinelles Lernen lösen. Viele Überwachungstools verfügen inzwischen über diese Fähigkeit, um zu lernen, was die normale Basislinie ist, und anomales Verhalten in den Daten zu erkennen, wenn es auftritt. Das Tool kann sich an metrische Trends und saisonale Schwankungen anpassen, um die dynamische Natur des System- und Anwendungsverhaltens kontinuierlich zu überwachen, und sich automatisch an Situationen wie tageszeitliche Auslastungsspitzen anpassen. Mit maschinellem Lernen können Sie Laufzeitprobleme früher erkennen und so System- und Anwendungsausfallzeiten reduzieren.
Kennt ihr das? Ihr schließt eure Ausbildung oder Weiterbildung ab, startet voller Vorfreude in euren ersten Job in einem Softwareunternehmen und plötzlich seid ihr umgeben von lauter Profis mit unglaublichen Skills. 😱
Aber hey, erinnert euch daran: Jeder Experte hat mal klein angefangen. Auch sie hatten ihre Anfänge und Herausforderungen und sind heute noch manchmal von kniffligem Code herausgefordert. Das Beste daran? Sie sind immer bereit zu helfen und ihr Wissen zu teilen, wenn ihr mal feststeckt. 🤝
Teilt eure ersten Job-Erlebnisse mit uns! Wie habt ihr euch gefühlt?
#ErsterJob #SoftwareEntwicklerLeben #VomAnfängerZumProfi #weareayedo #saarland #saarbrücken
Erfolgreiche Partnerschaft: ESCRA und ayedo revolutionieren ZTNA mit Kubernetes und Cloud-Hosting Strategische Partnerschaften sind entscheidend, um Stärken zu bündeln und gemeinsam zu wachsen. Ein …
Hochverfügbare SaaS-Infrastruktur für mehr als 2 Milliarden Requests pro Monat In der heutigen digitalisierten Welt sind Ausfallsicherheit und Skalierbarkeit unverzichtbare Merkmale jeder …
![Schutz vor Cyber-Bedrohungen: Ein umfassender Leitfaden zum Cyber Risiko Check] (ein-umfassender-leitfaden-zum-cyber-risiko-check.png) Ein effektiver Weg, um diese Risiken zu minimieren, ist der …
Compliance leicht gemacht: Die ISO27001 als Schlüssel zur Einhaltung gesetzlicher Vorschriften Die Einhaltung gesetzlicher Anforderungen und Datenschutzrichtlinien ist für Unternehmen eine ständige …
Ein Vorteil ist, dass durch die Containerisierung so deutlich weniger Ressourcen verbraucht werden, als bei einem herkömmlichen Server oder einer virtuellen Maschine.
Mit Docker können Sie sicherstellen, dass die Funktionalität Ihrer Anwendungen in jeder Umgebung ausgeführt werden kann. Dieser Vorteil entsteht, weil alle Anwendungen und deren Abhängigkeiten in einem Docker-Ausführungscontainer zusammengeführt werden.
Docker Swarm ist ein Orchestrator für Docker-Container. Mit Docker Swarm können Docker-Cluster erstellt und wie ein einziges virtuelles System verwaltet werden.
Docker Swarm stellt über das Scheduling sicher, dass immer ausreichend Kapazitäten für verteilte Container vorhanden sind und weist Container den zugrundeliegenden Nodes zu.
Docker Swarm wurde im Februar 2015 von Docker vorgestellt und reagiert auf den zunehmenden Orchestrierungsbedarf in Container-Umgebungen. Eine Alternative zu Docker Swarm wäre Kubernetes.
Mit Kubernetes vereinfachen und beschleunigen Sie bereits nach kurzer Zeit Ihre gesamte IT. Gleichzeitig erhöhen Sie die Stabilität und Verfügbarkeit Ihrer Workloads und Applikationen. Profitieren Sie von modernen DevOps Ansätzen und verkürzen Sie Ihre Time To Market. Wir beraten Sie gerne!
Mit ayedo Fleet erhalten Sie Zugriff auf eine sichere und hochverfügbare Container Plattform auf Basis von Kubernetes. Bei Bedarf unterstützt Sie unser Plattfom-Team mit indivduellen Lösungen und Managed Services.
Mehr Flexibilität - Starten sie klein und erweitern Sie ihre Ressourcen bei Bedarf. Schnell und kosteneffizient.
Mehr Sicherheit - Alle Container Plattformen sind durch dedizierte VPCs strikt voneinander getrennt. Individuelle Sicherheitsanpassungen sind jederzeit möglich.
Mehr Kontrolle - Mit jedem Projekt erhalten Sie eine eigene dedizierte Container Plattform. Erstellen Sie Netzwerke, Container und Volumes innerhalb weniger Minuten selbst.
Mehr Support und Managed Services - Profitieren Sie von der Erfahrung unseres Plattform Teams und zahlreichen Managed Services wie bspw. Kubernetes Cluster, Datenbanken und weiteren Applikationen.
Wir stellen Ihnen ein Kubernetes Cluster bereit und richten auf Wunsch für Sie Nginx Ingress und Portainer ein, sodass Sie Ihr Kubernetes Cluster über ein graphisches UI verwalten können.
Das Cluster besteht aus mindestens 3 Controlplane und 4 Worker Nodes und wird standardmäßig auf Infrastruktur der Hetzner Online GmbH bereitgestellt.
Im Anschluss sorgen wir für den zuverlässigen Betrieb und kümmern uns um die nachhaltige Aktualisierung von Kubernetes sowie der Betriebssystemen der Nodes und aller Managed Apps.
Teil unseres Services ist auch die kontinuierliche Überwachung Ihrer Anwendungen und das Sichern Ihrer Daten .
Sprechen Sie uns an →Wir stellen ein S3-kompatibles Speicher-Backend zur Verfügung auf das Ihre Sicherungen abgelegt werden. Zusammen mit Ihnen implementieren wir die nötigen Scripte und Dienste für die regelmäßige Sicherung Ihrer Daten auf unser Backend.
Wir überwachen die regelmäßige und vollständige Ausführung der Backups und ergreifen Maßnahmen im Fehlerfall. Für Integritätstests sind Sie selbst verantwortlich.
Sprechen Sie uns an →Ja. Da der Implementierungsaufwand je nach Ziel-System stark variieren kann berechnen wir diesen nach Aufwand. Für eine Übersicht an unterstützten Systemen, sprechen Sie uns bitte an.
Sprechen Sie uns an →Mit ayedo Cruise erhalten Sie Zugriff auf eine wahlweise hochverfügbare SaaS-Anwendung wie z.B. GitLab. Bei Bedarf unterstützt Sie unser Plattfom Team mit indivduellen Lösungen und Managed Services.
Mehr Flexibilität - Starten sie klein und erweitern Sie ihre Ressourcen bei Bedarf. Schnell, kosteneffizient und ohne User-Limit.
Mehr Sicherheit - Alle Ihre SaaS-Anwendungen laufen in Ihrer persönlichen Container Plattform und sind strikt von anderen Tenants getrennt. Individuelle Sicherheitsanpassungen sind jederzeit möglich.
Mehr Möglichkeiten - die Anwendungen in unserem App-Katalog lassen sich miteinander integrieren für mehr Produktivität und Sicherheit.
Mehr Support und Managed Services - Profitieren Sie von der Erfahrung unseres Plattform Teams und zahlreichen Managed Services wie bspw. Kubernetes Cluster, Datenbanken und weiteren Applikationen.
Wir stellen Ihre Wunschanwendung wahlweise auf Basis von Kubernetes bereit. Sie erhalten Zugriff auf die Anwendung.
Eventuelle Sonder-Konfigurationen oder Integrationen mit einem SSO-Provider oder einem S3-Backend sind nach Absprache möglich.
Standardmäßig werden Cruise-Apps ohne erweiterte Hochverfügbarkeit bereitgestellt. Das heißt es läuft in der Regel nur eine Replika des Anwendungs-Containers und eine Replika des Datenbank-Containers.
In diesem Fall hat die Anwendung bereits durch die Kubernetes-Primitives eine deutlich erhöhte Verfügbarkeit, da im Fehler-Fall oder bei einer Node-Downtime die relevanten Container umgehend neu gescheduled werden. Für die Zeit des Reschedulings stehen aber weder Anwendung noch Datenbank zur Verfügung, was aus User-Sicht einer Downtime gleichkommt.
Manche Apps unterstützen allerdings erhöhte Verfügbarkeit durch App-eigenes Clustering oder ähnliches. Ein gutes Beispiel wäre Postgres wo wir mehrere Datenbank-Pods bereitstellen und diese in einem Postgres-nativen Cluster miteinander synchronisieren können. Das heißt wenn ein Postgres-Container gestoppt werden muss bleibt die Datenbank für ihre Clients weiterhin verfügbar. Das erleichtert Wartungen und ungeplante Downtimes enorm und sorgt für eine deutlich bessere User-Expierence.
"Durable" Apps profitieren also neben den Kubernetes-nativen Hochverfügbarkeits-Mechanismen zusätzlich von eigenen Mechanismen zur Aufrechterhaltung des Betriebs. Das erhöht die Komplexität der Bereitstellung und die Menge an benötigten Ressourcen, reduziert aber mittelfristig den Wartungsaufwand bei Anwendungen die schnell skalieren müssen oder abhängig von ständiger Verfügbarkeit ihrer Dependencies sind.
Wir unterstützen die folgenden Provider:
Bitte beachten Sie, dass nicht alle unsere Produkte für all diese Cloud-Provider verfügbar sind. Einzelheiten können Sie den jeweiligen Produktseiten entnehmen.
ayedo bietet Consulting Services rund um das Thema DevOps, Kubernetes, Container und Cloud Native an. Wir können Ihre Teams hinsichtlich der Umsetzung Ihrer Projekte beraten und durch Support unterstützen.
Nein. Unser Fokus liegt auf der Bereitstellung der für den Betrieb von Software nötigen Infrastruktur und Plattformen. Gerne vermitteln wir Sie an unseren Partner avemio.tech.
Sprechen Sie uns an →Custom Apps sind z.B. Ihre Fachanwendungen oder öffentlich verfügbare Anwendungen die nicht Teil des ayedo Cruise Kataloges sind.
Gerne helfen wir Ihnen bei der Containerisierung und Paketierung Ihrer Anwendungen als Vorbereitung auf den Betrieb als Custom App auf einem ayedo Fleet basierten Kubernetes-Cluster.
Ja. Neben den von uns unterstützten Cloud Providern sind ayedo Fleet und ayedo Cruise auch für den Betrieb innerhalb Ihrer Rechenzentren oder IT-Infrastrukturen verfügbar.
Sprechen Sie uns an →Ja. All unsere Managed Services enthalten eine Management Pauschale die alle organisatorischen und zwischenmenschlichen Themen abdeckt.
Die anfallende Pauschale können Sie der jeweiligen Service- oder Produkt-Übersicht entnehmen.
Standardmäßig haben alle Verträge für Managed Services und Support eine Laufzeit von 12 Monaten.
Kunden von ayedo Fleet haben die Möglichkeit gegen eine monatliche Pauschale die Vertragslaufzeit auf 1 Monat zu reduzieren.
Die meisten Apps aus dem ayedo Cruise Katalog unterstützen OAuth2, OpenID Connect oder SAML als SSO-Mechanismus. Gerne integrieren wir Ihre App mit einem generischen IDP wie z.B. Microsoft 365, Google, GitHub, Keycloak oder Authentik.
Sprechen Sie uns an →Auf Wunsch betreiben wir Ihre ayedo Fleet CaaS-Plattform in Ihrem Account, bzw. Ihrer Subscription bei einem unserer unterstützten Cloud Provider.
Sprechen Sie uns an →Auf Wunsch speichern wir Ihre Backups und Volumes auf einem Ziel-System unter Ihrer Verwaltung. Dabei entfallen die Kosten pro Gigabyte, jedoch übernehmen wir keine Gewährleistung und leisten keinen Support hinsichtlich Restore oder Verfügbarkeit von Daten oder des Ziel-Systems.
Sprechen Sie uns an →Die meisten unserer Services und Apps im ayedo Cruise Katalog bieten Ihnen die Möglichkeit, Dienste unter Ihrer eigenen Domain zu betreiben.
Sprechen Sie uns an →Weitere Infos zu unseren Support-Zeitfenstern finden Sie hier.
Weitere Infos zu unseren Support-Kanälen finden Sie hier.
Je nach Support-Paket garantieren wir verschiedene Fristen für die Erst-Reaktion auf eine Support-Anfrage durch den Kunden. Weitere Infos zu unseren Reaktionszeiten finden Sie hier.
Unsere Cloud-Experten beraten Sie gerne und individuell.
Wir antworten in der Regel innerhalb weniger Stunden auf Ihre Nachricht.
Zu Gen-Z für E-Mail? Einfach mal Discord versuchen. Unter +49 800 000 3706 können Sie unter Angabe Ihrer Kontaktdaten auch einen Rückruf vereinbaren. Bitte beachten Sie, dass es keine Möglichkeit gibt, uns telefonisch direkt zu erreichen. Bitte gar nicht erst versuchen. Sollten Sie dennoch Interesse an synchroner Verfügbarkeit via Telefon haben, empfehlen wir Ihnen unseren Priority Support.