Agentic AI im SOC: Wenn KI-Agenten Incidents selbstständig bearbeiten

Die nächste Stufe der KI-Integration in Security Operations ist nicht Augmentation, sondern Autonomie. Agentic AI beschreibt KI-Systeme, die nicht nur analysieren und empfehlen, sondern eigenständig Entscheidungen treffen und Aktionen ausführen — Tickets erstellen, Systeme isolieren, Firewall-Regeln anpassen, Benutzer sperren. Der Schritt vom augmentierten zum autonomen Analysten wirft fundamentale Fragen auf: Was darf KI allein entscheiden? Wo muss der Mensch eingreifen?

Was Agentic AI von klassischer Automatisierung unterscheidet

SOAR-Plattformen (Security Orchestration, Automation and Response) automatisieren seit Jahren Incident-Response-Workflows. Der Unterschied zu Agentic AI liegt in der Entscheidungsfähigkeit:

  • SOAR: Führt vordefinierte Playbooks aus. Wenn Alert X eintritt, führe Aktion Y aus. Deterministisch, vorhersagbar, begrenzt
  • Agentic AI: Analysiert den Kontext eines Incidents, wägt Handlungsoptionen ab und wählt die angemessene Reaktion — auch für Szenarien, für die kein Playbook existiert

Ein SOAR-Playbook kann sagen: „Bei Brute-Force-Alert: IP blocken.“ Ein KI-Agent kann erkennen, dass die IP zu einem legitimen Partner-VPN gehört, und stattdessen den betroffenen Account sperren und den Partner informieren. Diese kontextabhängige Entscheidung ist der qualitative Sprung.

Konkrete Einsatzszenarien

1. Automatisierte Incident-Triage und -Eskalation

Der KI-Agent bewertet eingehende Alerts, reichert sie mit Kontext an, erstellt eine Zusammenfassung und entscheidet: Schließen (False Positive), eskalieren (an Tier-2-Analyst) oder sofort reagieren (automatisierte Containment-Maßnahme).

2. Threat Hunting auf Bestellung

Ein Analyst gibt dem Agenten eine Hypothese: „Prüfe, ob in den letzten 7 Tagen ungewöhnliche PowerShell-Aktivität auf Domain Controllern stattgefunden hat.“ Der Agent formuliert die Queries, durchsucht die Logs, korreliert Ergebnisse und präsentiert eine strukturierte Analyse — in Minuten statt Stunden.

3. Automatisierte Containment-Maßnahmen

Bei bestätigter Kompromittierung kann der Agent vordefinierte Response-Aktionen ausführen: Betroffenes System vom Netz isolieren, alle aktiven Sessions des kompromittierten Accounts widerrufen, Firewall-Regeln für die Angreifer-IP setzen, Ticket für das IR-Team erstellen.

4. Compliance-Reporting

Der Agent sammelt automatisch die für NIS2-Meldepflichten relevanten Informationen: Zeitstempel, betroffene Systeme, Art des Vorfalls, eingeleitete Maßnahmen. Die 24-Stunden-Erstmeldung wird automatisch vorbereitet.

Die Risiken: Warum Autonomie kontrolliert werden muss

Halluzinationen mit Konsequenzen

Wenn ein LLM in einem Chatbot halluziniert, ist das ärgerlich. Wenn ein KI-Agent aufgrund einer Fehleinschätzung ein Produktionssystem isoliert, ist das ein Betriebsausfall. Autonome Aktionen haben reale Konsequenzen — und die Fehlertoleranz ist minimal.

Adversarial Manipulation

KI-Agenten, die auf Logs und Events reagieren, sind anfällig für Log Injection: Angreifer schleusen manipulierte Log-Einträge ein, die den Agenten zu falschen Schlussfolgerungen oder unerwünschten Aktionen verleiten. Ein Angreifer könnte gezielt Alerts erzeugen, die den Agenten dazu bringen, ein anderes, nicht kompromittiertes System zu isolieren — als Ablenkung.

Verantwortungsdiffusion

Wenn ein KI-Agent eine Fehlentscheidung trifft — wer trägt die Verantwortung? Der Hersteller der KI? Der SOC-Leiter, der die Autonomie freigeschaltet hat? Der Analyst, der den Agenten nicht überwacht hat? Klare Governance-Strukturen sind Voraussetzung für autonome KI.

Das Stufenmodell: Von Empfehlung zu Autonomie

Der Weg zu Agentic AI im SOC sollte in kontrollierten Stufen erfolgen:

  1. Stufe 1 — Advisory: KI empfiehlt, Mensch entscheidet und handelt. Kein Risiko, maximale Kontrolle
  2. Stufe 2 — Semi-autonom: KI führt Low-Risk-Aktionen automatisch aus (False Positives schließen, Tickets erstellen), High-Risk-Aktionen erfordern menschliche Freigabe
  3. Stufe 3 — Autonom mit Guardrails: KI führt auch High-Risk-Aktionen aus, aber innerhalb definierter Grenzen (z.B. maximal 3 Systeme gleichzeitig isolieren, keine Domänen-Admin-Accounts sperren)
  4. Stufe 4 — Vollautonome Response: KI handelt ohne menschliche Freigabe. Aktuell für die meisten Organisationen nicht empfehlenswert

Die meisten Organisationen sollten sich zwischen Stufe 2 und 3 positionieren — mit klarer Dokumentation, welche Aktionen autonom ausgeführt werden dürfen und welche nicht.

Handlungsempfehlungen

  • Klein anfangen: Mit der Automatisierung von Tier-1-Triage und Low-Risk-Responses beginnen. Autonomie schrittweise ausweiten, basierend auf messbaren Ergebnissen
  • Guardrails definieren: Welche Aktionen darf die KI allein ausführen? Welche erfordern menschliche Freigabe? Diese Grenzen müssen explizit konfiguriert und dokumentiert sein
  • Adversarial Testing: KI-Agenten gegen manipulierte Inputs testen — Log Injection, falsche Alerts, widersprüchliche Informationen. Wie reagiert der Agent unter adversarialen Bedingungen?
  • Audit Trail: Jede autonome Entscheidung des Agenten muss vollständig protokolliert werden — Eingabedaten, Reasoning, ausgeführte Aktion, Ergebnis
  • Rollback-Fähigkeit: Jede automatisierte Aktion muss rückgängig gemacht werden können. Wenn der Agent ein System falsch isoliert, muss die Isolation in Sekunden aufgehoben werden können

J. Benjamin Espagné

XIEM® Control AI: Unsere Antwort auf Agentic AI im SOC

Agentic AI im SOC ist keine Zukunftsvision — wir setzen es bereits ein.

Mit XIEM® Control AI haben wir einen KI-Agenten entwickelt, der in unserem SOC auf Stufe 2 operiert: Low-Risk-Aktionen werden automatisch ausgeführt, High-Risk-Entscheidungen erfordern menschliche Freigabe.

Konkret:

Automatische Triage: Bekannte False Positives werden geschlossen, Alerts angereichert und korreliert
Kontextabhängige Empfehlungen: Der Agent empfiehlt Response-Aktionen basierend auf Incident-Kontext und historischen Mustern
Semi-autonome Response: IP-Blocking und Session-Revocation werden nach Analyst-Bestätigung automatisch ausgeführt
NIS2-Reporting: Incident-Informationen werden automatisch für die 24h-Erstmeldung aufbereitet

Die Guardrails sind explizit definiert: Keine Domain-Admin-Accounts sperren, keine Produktionssysteme ohne Analyst-Freigabe isolieren, vollständiger Audit Trail für jede autonome Entscheidung.

Das Stufenmodell im Artikel entspricht exakt unserem Vorgehen: Kontrollierte Autonomie mit messbarem Mehrwert — nicht blindes Vertrauen in KI.

Wollen Sie sehen, wie Agentic AI in einem realen SOC funktioniert? Wir zeigen es Ihnen.

SANS — Agentic AI for Security (2026)
Gartner — What Is Agentic AI?
MITRE ATT&CK — Response Actions Matrix

Sicherheitslücken schließen. Risiken senken. Jetzt handeln!

Unsere Experten zeigen Ihnen live, wie wir Angriffe erkennen, stoppen und Ihr Unternehmen schützen.

Blog

Aktuelle Sicherheitsereignisse