LLMs als Waffe: Neue Ära der Cyberbedrohung
David Hussain 3 Minuten Lesezeit

LLMs als Waffe: Neue Ära der Cyberbedrohung

Die rasante Entwicklung von Künstlicher Intelligenz, insbesondere von Large Language Models (LLMs) wie Google Gemini oder OpenAI’s ChatGPT, hat das Potenzial, unsere Welt zu revolutionieren. Leider bleiben diese mächtigen Werkzeuge auch der Cyberkriminalität nicht verborgen. Bedrohungsakteure sind längst von der bloßen Produktivitätssteigerung (z. B. dem Verfassen besserer Phishing-E-Mails) zur aktiven Weaponisierung von KI in Malware und Angriffsmethoden übergegangen.
cyberbedrohung k-nstliche-intelligenz large-language-models malware cyberkriminalit-t bedrohungsanalyse promptsteal

Die rasante Entwicklung von Künstlicher Intelligenz, insbesondere von Large Language Models (LLMs) wie Google Gemini oder OpenAI’s ChatGPT, hat das Potenzial, unsere Welt zu revolutionieren. Leider bleiben diese mächtigen Werkzeuge auch der Cyberkriminalität nicht verborgen. Bedrohungsakteure sind längst von der bloßen Produktivitätssteigerung (z. B. dem Verfassen besserer Phishing-E-Mails) zur aktiven Weaponisierung von KI in Malware und Angriffsmethoden übergegangen.

Die Google Threat Intelligence Group (GTIG) warnt davor, dass wir uns in einer neuen Phase des KI-gestützten Cyberkriegs befinden.

1. PROMPTSTEAL: Die Malware, die die KI um Hilfe bittet

Eines der beunruhigendsten Beispiele für die neue Generation von KI-Malware ist PROMPTSTEAL.

Was ist PROMPTSTEAL?

Im Gegensatz zu traditioneller Malware, die feste Befehle ausführt, nutzt PROMPTSTEAL LLMs als eine Art bösartiges, externes Gehirn.

  • Der Modus Operandi: Die Malware wird auf einem Zielsystem installiert. Anstatt nun vordefinierte Aktionen auszuführen, sendet PROMPTSTEAL eine API-Anfrage an ein frei zugängliches oder kompromittiertes LLM (z. B. über eine API von Hugging Face).
  • Der bösartige Prompt: Diese Anfrage enthält Anweisungen im Stil von: “Führe eine Inventur von Dateien auf dem Desktop durch und exfiltriere sensible Dokumente.”
  • Die Antwort: Das LLM, ohne die bösartige Absicht zu erkennen, generiert den Code oder die Befehlszeilen-Syntax, die für die Informationsentwendung auf dem spezifischen Betriebssystem (Windows, Linux, etc.) benötigt wird.
  • Die Ausführung: PROMPTSTEAL führt den von der KI generierten Code aus.

Dieser Ansatz macht es für herkömmliche signaturbasierte Sicherheitsprodukte extrem schwer, die Malware zu identifizieren, da sich die ausgeführten Befehle dynamisch und kontextabhängig ändern können.

2. PROMPTFLUX: Die dynamische C2-Infrastruktur

Ein weiteres alarmierendes Konzept, das in der Community der Bedrohungsakteure diskutiert wird, ist PROMPTFLUX – ein Ansatz zur Steuerung und Kommunikation von Malware.

Was ist PROMPTFLUX?

PROMPTFLUX zielt darauf ab, die Kommunikation zwischen der Malware auf dem infizierten System und dem Command-and-Control (C2)-Server des Angreifers hinter einer LLM-API zu verstecken.

  • Die Verschleierung: Anstatt eine direkte IP-Adresse oder Domain für die Kommunikation zu verwenden (was leicht blockiert werden kann), sendet die Malware eine harmlose, aber verschlüsselte oder kodierte Anfrage an ein öffentliches LLM (z. B. “Schreibe ein Gedicht über den Herbst in der Normandie.”).
  • Der bösartige Prompt: In einem bestimmten Teil der Anfrage oder in den Metadaten versteckt sich eine Anweisung für das LLM, einen bestimmten, öffentlichen Text zu generieren, der dann für die Malware als verschlüsselte Anweisung dient.
  • Die Entschlüsselung: Die Malware empfängt die KI-Antwort (das Gedicht), extrahiert und entschlüsselt die versteckte Nachricht (die Anweisung für den nächsten Schritt) und weiß, was zu tun ist.

Das Ergebnis ist eine höchst agile und schwer fassbare C2-Infrastruktur, da die Kommunikation über eine vertrauenswürdige LLM-Domain läuft und der Inhalt der Kommunikation ständig durch die LLM-Generierung verändert wird.

Fazit: Wie können wir uns schützen?

Die Fälle von PROMPTSTEAL und PROMPTFLUX zeigen, dass LLMs von Bedrohungsakteuren nicht nur als Werkzeug, sondern als aktiver Bestandteil der Angriffskette betrachtet werden.

Die Verteidiger müssen jetzt handeln:

  1. Verstärkte Endpoint Detection and Response (EDR): Systeme müssen in der Lage sein, ungewöhnliche Verhaltensmuster (z. B. unerwartete API-Aufrufe an LLM-Dienste durch unbekannte Prozesse) zu erkennen, anstatt sich nur auf Signaturen zu verlassen.
  2. Verhaltensbasierte Analyse: Konzentrieren Sie sich auf die Aktionen der Malware (z. B. Versuch der Datenexfiltration oder Ausführung von ungewöhnlichen Shell-Befehlen), nicht nur auf ihre Herkunft.
  3. LLM-Anbieter in der Verantwortung: Anbieter wie Google und OpenAI müssen ihre Modelle weiter härten, um “Prompt-Jailbreaks” (Techniken zur Umgehung von Sicherheits- und ethischen Richtlinien) effektiver zu verhindern.

Die Bedrohung ist dynamisch – unsere Verteidigung muss es auch sein.

Ähnliche Artikel

Weekly Backlog KW 40/2025

Souveränität vs. Marktlogik 🧠 Editorial Diese Woche lässt sich ein roter Faden kaum übersehen: …

25.09.2025