Weekly Backlog KW 18/2026
🧠 Editorial Man kann diese Ausgabe auch so lesen: Software ist längst kein Werkzeug mehr – sie ist …

Man kann diese Ausgabe auch so lesen: Software ist längst kein Werkzeug mehr – sie ist Machtinfrastruktur.
Während Palantir offen formuliert, wie Staaten künftig funktionieren sollen, diskutiert Deutschland darüber, wie lange IP-Adressen gespeichert werden müssen – und unterschätzt dabei konsequent die technische Realität. Gleichzeitig versucht man mit dem Deutschland-Stack Ordnung reinzubringen, stolpert aber über genau die Fragen, die man lieber nicht stellt.
Und dann passiert etwas Seltenes: Die Bundeswehr sagt bei genau dieser Art von Abhängigkeit einfach mal Nein.
Dazwischen zeigt ein geplatzter AI-Deal, dass selbst Milliarden keine Rolle mehr spielen, wenn geopolitische Interessen ins Spiel kommen.
Das Muster ist ziemlich eindeutig: Kontrolle über Technologie wird zur eigentlichen Währung.
Wer sie hat, definiert die Spielregeln. Wer sie nicht hat, diskutiert über Rahmenbedingungen.
Genau deshalb lohnt sich der Blick in die Details.
Palantir hat ein Manifest veröffentlicht – und selten hat ein Tech-Dokument so klar gemacht, wie sehr sich Machtverhältnisse gerade verschieben. Die zentrale These: Staatliche Souveränität ist ohne tief integrierte Software-Systeme nicht mehr denkbar.
Das klingt erstmal wie eine realistische Beschreibung moderner Verwaltung. Tatsächlich steckt darin aber ein Anspruch. Denn wer Plattformen baut, die Daten zusammenführen, priorisieren und in Entscheidungsgrundlagen übersetzen, beeinflusst nicht nur Prozesse – sondern die Logik dahinter.
Genau hier wird es spannend: Palantir positioniert sich nicht als Dienstleister, sondern als Teil der Entscheidungsinfrastruktur. Die klassische Trennung zwischen Staat, Militär und technischer Basis verschwimmt. Nicht weil sie aktiv aufgehoben wird, sondern weil die Infrastruktur selbst zur entscheidenden Instanz wird.
Der Begriff „Technologie als Staatsräson" bringt das auf den Punkt – ist aber weniger Analyse als Programm. Denn diese Technologie kommt nicht vom Staat, sondern von privaten Anbietern. Mit eigenen Interessen, eigener Roadmap und begrenzter Transparenz.
Die eigentliche Frage ist damit nicht mehr, ob Staaten solche Systeme brauchen – sondern wer sie kontrolliert. Wer definiert Parameter? Wer setzt Prioritäten? Und wer trägt Verantwortung, wenn Entscheidungen aus Blackbox-Systemen entstehen?
Gerade aus europäischer Perspektive wirkt das wie ein kontrollierter Regelbruch. Grundrechte, Datenschutz und institutionelle Kontrolle sind hier bewusst gesetzte Grenzen. Palantir umgeht sie nicht offen, sondern integriert sich so, dass sie mitlaufen – aber an Einfluss verlieren.
Kurz gesagt: Das ist kein Software-Pitch. Das ist der Versuch, die Spielregeln staatlicher Handlungsfähigkeit neu zu schreiben – aus der Perspektive eines Plattformanbieters.
Die Vorratsdatenspeicherung ist zurück – wieder einmal. Die Bundesregierung will IP-Adressen samt Portnummern und Zeitstempeln für drei Monate speichern lassen, um Ermittlungen im digitalen Raum zu erleichtern.
Auf dem Papier klingt das nach „geringer Aufwand". In der Praxis eher nach klassischem Infrastruktur-Projekt mit politischer Wunschkalkulation.
Denn: Die eigentlichen Kosten landen bei den Providern. Gerade die Speicherung von Portnummern (Stichwort NAT bei IPv4) ist technisch alles andere als trivial. Viele Systeme sind dafür schlicht nicht gebaut. Heißt: Umbau, neue Logging-Infrastruktur, mehr Storage, mehr Komplexität.
Und dann kommt der unangenehme Teil: Security.
Die entstehenden Datensammlungen sind faktisch hochattraktive Ziele – zentrale „Honeypots" mit sensiblen Nutzungsdaten. Absicherung, Zugriffskontrolle und saubere Löschung in Backup-Systemen werden schnell zum eigentlichen Kostentreiber. Im Gesetzentwurf? Eher optimistisch bepreist.
Auch der Nutzen bleibt umstritten. Selbst Behörden gehen intern davon aus, dass deutlich kürzere Speicherfristen oft ausreichen würden. Gleichzeitig lassen sich IP-Zuordnungen über VPNs oder Tor relativ einfach umgehen.
Das Ergebnis: Hoher technischer und finanzieller Aufwand – bei fraglichem Effekt.
Kurz gesagt: Klassischer Fall von „Wir bauen erstmal die Datenplattform und hoffen, dass sie später Probleme löst". Nur diesmal auf gesetzlicher Ebene.
Das Digitalministerium will mit dem „Deutschland-Stack" endlich so etwas wie eine einheitliche IT-Basis für die Verwaltung bauen – Cloud, Schnittstellen, Basiskomponenten. Klingt nach overdue Infrastrukturarbeit.
Und tatsächlich: Öffentlich wurde zur Beteiligung aufgerufen. Feedback über openCode, transparent, niedrigschwellig – fast schon untypisch offen für ein Bundesprojekt dieser Größenordnung.
Das Problem beginnt im zweiten Schritt.
Parallel zur offenen Konsultation liefen Workshops – allerdings primär mit Wirtschaft, Verbänden und Industrie. Zivilgesellschaft? Fehlanzeige. Und das, obwohl genau dort seit Jahren Erfahrung mit Verwaltungsdigitalisierung, Open Data und Grundrechtsfragen aufgebaut wird.
Das Ergebnis ist ein bekanntes Muster: Offene Beteiligung für die Oberfläche, geschlossene Runden für die eigentlichen Entscheidungen.
Besonders heikel wird das beim Thema KI in der Verwaltung, das explizit Teil des Deutschland-Stacks ist. Hier geht es nicht nur um Effizienz, sondern um Verantwortung: Wer haftet, wenn ein KI-System falsche Entscheidungen trifft? Wie verhindert man, dass sich Verantwortung im Zusammenspiel von Behörde, Dienstleister und Software schlicht auflöst?
Genau diese Fragen kommen vor allem aus der Zivilgesellschaft – und genau die fehlen, wenn Beteiligung nur selektiv passiert.
Der Widerspruch ist offensichtlich: Einerseits will man „ins Machen kommen". Andererseits blendet man systematisch die Perspektiven aus, die Grenzen, Risiken und Nebenwirkungen adressieren.
Gerade bei einem Projekt, das langfristig die digitale Architektur des Staates prägt, ist das kein Detail – sondern ein strukturelles Problem.

Jens Bohse greift einen ziemlich wilden Case auf: Meta wollte für rund 2 Milliarden Dollar das Agent-AI-Startup Manus übernehmen – Integration lief offenbar schon, Branding war draußen, Deal quasi durch.
Und dann: Stopp aus China. Keine Begründung, einfach blockiert. Rückabwicklung.
Der eigentliche Punkt im Beitrag ist aber nicht der Deal selbst, sondern das Signal dahinter: Selbst wenn ein AI-Startup formal ins Ausland zieht (hier: Singapur), bleibt es politisch im Einflussbereich – zumindest aus Sicht Pekings.
Damit wird klar: Cross-Border-AI-Deals sind kein normales M&A-Spiel mehr. Sie hängen an Herkunft, Talenten, Kapitalströmen – und letztlich an geopolitischen Interessen.
Für Meta ist das konkret ein Rückschlag im Agent-Rennen. Für den Markt insgesamt eher ein Hinweis darauf, dass sich AI gerade in dieselbe Richtung entwickelt wie Halbleiter: strategisch, reguliert, fragmentiert.
Der Beitrag ist lesenswert, weil er diesen Shift sehr kompakt sichtbar macht – ohne großes Drama, aber mit klarer Konsequenz.
Regierungsmitglieder Opfer von Ausspähung über Signal; Spionageverdacht betont Risiken staatlicher Kommunikation, Plattformabhängigkeiten und geopolitische Spannungen im digitalen Umfeld.
Telekom plant verbesserte ePA, um nationale Gesundheitsdaten-Infrastruktur zu stärken; Beispiel für staatliche digitale Infrastruktur, Regulierung und europäischen Rechtsrahmen zur Souveränität in sensiblen Sektoren.
GA der feingranularen Kubelet-Authorization stärkt least-privilege-Modelle; reduziert Angriffsfläche; erhöht Sicherheitskontrolle auf Cluster-Ebene; zentrale Rolle für Open-Source-Infrastruktur und Plattformunabhängigkeit.
🔗https://kubernetes.io/blog/2026/04/24/kubernetes-v1-36-fine-grained-kubelet-authorization-ga/

Falls dir der Weekly Backlog nicht reicht: Es gibt noch mehr davon – nur etwas kompakter.
Der ayedo Newsletter kommt einmal im Monat und fokussiert sich auf das Wesentliche:
Weniger Frequenz, gleicher Anspruch: Relevanz vor Lautstärke.
Während die Nato bereits auf Palantir setzt, zieht die Bundeswehr eine klare Grenze: Keine Nutzung der Software für eigene Systeme – vor allem aus einem Grund: Datenkontrolle.
Der Knackpunkt ist weniger die Technologie als das Betriebsmodell. In Nato-Kontexten wird die Software teils direkt von Palantir-Mitarbeitern betrieben. Für die Bundeswehr ein No-Go – insbesondere, wenn es um sensible nationale Daten geht.
Stattdessen setzt man auf europäische Alternativen und eigene Partner. Das ist langsamer, wahrscheinlich auch teurer – aber strategisch deutlich unabhängiger.
Bemerkenswert ist die Klarheit der Entscheidung. In einer Zeit, in der viele Staaten bei kritischer Infrastruktur sehr schnell bei US-Anbietern landen, priorisiert man hier bewusst Souveränität über Time-to-Market.
Gerade im Kontext der aktuellen Debatten rund um Palantir wirkt das wie ein seltenes Beispiel für: Nicht alles, was funktioniert, wird automatisch eingesetzt.
🔗 https://www.zeit.de/politik/deutschland/2026-04/palantir-bundeswehr-nato-software-gxe
Der Security-Insider Podcast nimmt sich ein Thema vor, das sonst zuverlässig zwischen Marketing und Politik zerredet wird: digitale Souveränität.
Spannend ist hier weniger die x-te Definition, sondern der pragmatische Ansatz. Statt „alles selbst bauen" vs. „einfach AWS nehmen" geht es um den Graubereich dazwischen – inklusive konkreter Tools, Strategien und realistischen Einstiegspunkten.
Mit 12 Gästen kommt zwangsläufig keine einheitliche Linie raus. Aber genau das macht die Folge interessant: Man bekommt ein ganz gutes Gefühl dafür, wo die echten Spannungen liegen – zwischen Abhängigkeit, Aufwand und operativer Realität.
Kein Souveränitäts-Washing, sondern eher ein ehrlicher Blick auf die Frage: Wie kommt man praktisch ein Stück weg von Big Tech, ohne sich komplett zu isolieren?

🧠 Editorial Man kann diese Ausgabe auch so lesen: Software ist längst kein Werkzeug mehr – sie ist …
🧠 Editorial Diese Woche zeigt ziemlich klar, wo es gerade kippt: Wir reden über digitale …
🧠 Editorial Diese Woche fühlt sich Tech mal wieder weniger wie Fortschritt und mehr wie …