Agentic AI & Infrastructure: Wenn die KI Ressourcen selbst verwaltet
Bis vor kurzem war die Automatisierung von Infrastruktur reaktiv: Wenn die CPU-Auslastung über 80 % …

In einer klassischen IT-Infrastruktur gab es eine klare Kausalkette: Ein Administrator änderte eine Zeile Code, und das System reagierte. In der Welt der Agentic AI trifft die KI autonome Entscheidungen (z. B. das Terminieren von Instanzen oder das Umrouten von Traffic), basierend auf Milliarden von Parametern. Ohne eine Strategie für Explainability(Erklärbarkeit) wird die Infrastruktur unberechenbar.
Human-Machine-Trust bedeutet, Systeme so zu bauen, dass sie nicht nur handeln, sondern ihr Handeln jederzeit gegenüber dem Menschen rechtfertigen können.
Um Vertrauen aufzubauen, implementieren wir eine Schicht der „Interpretierbarkeit" über unsere KI-Agenten. Wir nutzen dafür drei wesentliche technische Konzepte:
Jeder autonome Befehl eines KI-Agenten muss mit einem „Rationale" verknüpft sein.
kubectl scale, sondern speichert in einer verknüpften Datenbank den logischen Pfad: „Ich skaliere Service A hoch, weil die Latenz in Region Süd um 15 % gestiegen ist und die Vorhersage für die nächsten 10 Minuten eine weitere Steigerung von 20 % zeigt."Wenn eine KI behauptet, dass ein Server in 2 Stunden ausfallen wird (Predictive Maintenance), wollen wir wissen, warum.
Vertrauen wächst durch Kontrolle. Wir definieren Schwellenwerte für die KI-Autonomie.
Klassisches Monitoring (Prometheus/Grafana) zeigt uns, was passiert. Für Human-Machine-Trust brauchen wir ein System, das uns zeigt, warum es passiert ist.
User Request -> AI Agent Decision -> Infrastructure Change.Vertrauen entsteht auch durch die Art der Präsentation. Eine Infrastruktur, die „spricht", wird eher akzeptiert als eine, die nur Fehlercodes ausgibt.
Macht uns diese Transparenz nicht langsamer? Initialer Aufwand beim Logging ja, aber langfristig nein. Ohne Transparenz verbringen Administratoren Tage mit der Suche nach dem Grund für eine KI-Fehlentscheidung. Mit XAI sehen sie es in Sekunden.
Kann die KI ihre Begründungen nicht einfach “erfinden” (Halluzination)? Das ist ein Risiko. Deshalb validieren wir die KI-Begründung gegen harte Fakten (Deterministische Daten). Wenn die KI sagt, sie skaliert wegen hoher CPU-Last, die Metriken aber 10 % anzeigen, wird der Agent sofort gestoppt.
Welche Rolle spielt der EU AI Act hier konkret? Der EU AI Act stuft Systeme, die kritische Infrastruktur verwalten, oft als „hochriskant" ein. Das bedeutet, dass Transparenz, menschliche Aufsicht und Robustheit gesetzlich vorgeschrieben sind. Human-Machine-Trust ist also die technische Umsetzung dieser gesetzlichen Pflicht.
Brauchen wir jetzt neue Rollen im Team? Ja, den AI Orchestrator oder AI Auditor. Jemand, der die Modelle überwacht, die Leitplanken kalibriert und sicherstellt, dass die KI nicht in eine falsche Richtung lernt (Model Drift).
Ist das Ziel die totale Autonomie? Nein. Das Ziel ist die symbiotische IT. Die KI übernimmt die skalierbare Routine und die blitzschnelle Reaktion, während der Mensch die strategische Richtung, die ethischen Grenzen und die finale Verantwortung behält.
Bis vor kurzem war die Automatisierung von Infrastruktur reaktiv: Wenn die CPU-Auslastung über 80 % …