Wenn KI die Seiten wechselt: 6 Wege, wie Angreifer KI-Dienste gegen Ihr Unternehmen einsetzen
Künstliche Intelligenz verändert die Cybersecurity-Landschaft — aber nicht nur auf der Verteidigerseite. Angreifer nutzen dieselben KI-Dienste, die Unternehmen für Produktivität und Innovation einsetzen, als Angriffsinfrastruktur. Dabei geht es längst nicht mehr nur um KI-generierte Phishing-Mails. Die Methoden sind systematischer, kreativer und gefährlicher geworden.
Der CSO-Online-Autor Roger Grimes hat sechs zentrale Missbrauchsmuster identifiziert, die wir hier mit zusätzlichen Quellen und unserer Einschätzung einordnen.
1. KI-gestütztes Social Engineering und Phishing
Large Language Models erzeugen Phishing-Mails, die sprachlich, kontextuell und stilistisch kaum noch von legitimer Kommunikation zu unterscheiden sind. Angreifer nutzen ChatGPT, Claude oder lokale Open-Source-Modelle, um in Sekunden hunderte individualisierte Nachrichten zu generieren — in jeder Sprache, in jedem Tonfall. Laut einer Studie von SlashNext stieg die Zahl KI-generierter Phishing-E-Mails allein 2024 um über 1.200 Prozent. Harvard Business Review berichtet, dass 60 Prozent der Empfänger auf KI-generierte Phishing-Mails hereinfallen — eine Rate, die mit manuell erstellten, gezielten Spear-Phishing-Angriffen vergleichbar ist.
Besonders perfide: Die Modelle werden mit öffentlich verfügbaren Informationen aus LinkedIn, Unternehmenswebsites und Pressemitteilungen gefüttert. Das Ergebnis sind hochgradig personalisierte Nachrichten, die gezielt Vertrauensverhältnisse ausnutzen.
2. Deepfake-Audio und -Video für CEO-Fraud
Deepfake-Technologie ist kein Zukunftsszenario mehr — sie ist operatives Angriffswerkzeug. Angreifer klonen Stimmen von Geschäftsführern und Vorständen aus öffentlich verfügbaren Aufnahmen (Podcasts, Konferenz-Talks, YouTube-Videos) und setzen sie für CEO-Fraud ein. Der prominenteste Fall: Ein Finanzangestellter in Hongkong überwies 25 Millionen US-Dollar, nachdem er in einer Videokonferenz von Deepfake-Versionen seiner Kollegen und seines CFOs überzeugt wurde.
Laut dem BSI-Lagebericht 2024 nimmt die Qualität von Deepfake-Angriffen rapide zu. Voice-Cloning benötigt heute nur noch wenige Sekunden Audiomaterial und ist mit frei verfügbaren Tools realisierbar. Für Unternehmen bedeutet das: Jede telefonische oder videobasierte Freigabe-Anforderung ohne Out-of-Band-Verifikation ist ein Sicherheitsrisiko.
3. KI-generierter Schadcode und polymorphe Malware
Angreifer nutzen KI-Modelle, um Malware zu erzeugen, die sich bei jeder Ausführung verändert — sogenannte polymorphe Malware. Sicherheitsforscher von Hoxhunt und Picus Security haben nachgewiesen, dass aktuelle LLMs in der Lage sind, funktionsfähige Exploit-Codes, Obfuscation-Layer und Evasion-Techniken zu generieren. Picus Security dokumentierte im “Red Report 2025”, dass KI-gesteuerte Malware-Kampagnen um 500 Prozent zugenommen haben.
Selbst wenn die großen Anbieter Schutzmechanismen einbauen (Guardrails), werden diese systematisch umgangen — durch Prompt Injection, Jailbreaks oder durch den Einsatz unzensierter Open-Source-Modelle wie WormGPT oder FraudGPT, die explizit für kriminelle Zwecke trainiert wurden.
4. Automatisierte Schwachstellensuche und Reconnaissance
Was früher Wochen manueller Arbeit erforderte, erledigen KI-gestützte Tools in Minuten. Angreifer setzen Large Language Models ein, um öffentlich zugängliche Informationen (OSINT) systematisch auszuwerten, Angriffsflächen zu kartieren und bekannte Schwachstellen automatisch mit Exploit-Code zu verknüpfen. Google DeepMind zeigte mit Project Naptime, dass KI-Agenten eigenständig Schwachstellen in Software finden können — und das mit einer Erfolgsrate, die menschliche Analysten in bestimmten Szenarien übertrifft.
Für Angreifer senkt das die Eintrittsbarriere massiv: Technisch weniger versierte Akteure können mit KI-Unterstützung Angriffe durchführen, die früher APT-Gruppen vorbehalten waren. Das NCSC (National Cyber Security Centre, UK) bestätigte in seinem 2024-Assessment, dass KI die Geschwindigkeit und Effektivität von Cyberangriffen nachweislich erhöht.
5. Missbrauch legitimer KI-Infrastruktur
Ein besonders unterschätzter Angriffsvektor: Angreifer nutzen die API-Infrastruktur legitimer KI-Dienste als Teil ihrer Angriffskette. Dazu gehört die Nutzung von KI-Plattformen zur Datenexfiltration (Zusammenfassungen sensibler Dokumente generieren lassen), die Verwendung von KI-Code-Assistenten zur Identifikation von Schwachstellen in gestohlenem Quellcode, sowie die Nutzung von KI-Übersetzungsdiensten für mehrsprachige Angriffskampagnen.
Microsoft und OpenAI dokumentierten bereits 2024, dass staatlich unterstützte Hackergruppen — darunter Gruppen aus Russland (Forest Blizzard/APT28), China (Charcoal Typhoon), Nordkorea (Emerald Sleet) und dem Iran (Crimson Sandstorm) — aktiv ChatGPT für Reconnaissance, Skripting und Social Engineering nutzen.
6. Prompt Injection und Manipulation von KI-Agenten
Mit der zunehmenden Integration von KI-Agenten in Geschäftsprozesse (Kundensupport, Datenanalyse, automatisierte Workflows) entsteht eine neue Angriffsfläche: Prompt Injection. Angreifer schleusen manipulierte Anweisungen in Datenquellen ein, die von KI-Agenten verarbeitet werden — etwa in E-Mails, Dokumente oder Webseiten. Der Agent führt dann Aktionen im Kontext seiner Berechtigungen aus, ohne dass ein Mensch eingreift.
OWASP hat Prompt Injection in seine Top-10-Liste der LLM-Sicherheitsrisiken aufgenommen (Platz 1). Forscher von Anthropic, Google und Microsoft haben unabhängig voneinander demonstriert, wie Indirect Prompt Injection in Enterprise-Szenarien zu Datenabfluss, unautorisiertem Zugriff und Manipulation von Geschäftsentscheidungen führen kann.
Was bedeutet das für Unternehmen?
Die Konvergenz von KI und Cyberangriffen verschärft eine ohnehin angespannte Bedrohungslage. Unternehmen müssen ihre Sicherheitsarchitektur anpassen — und zwar nicht irgendwann, sondern jetzt. Drei Handlungsfelder sind dabei zentral:
Sichtbarkeit schaffen: Wer nicht sieht, was in seinem Netz passiert, erkennt weder KI-generierte Phishing-Mails noch den Missbrauch interner KI-Dienste. Ein funktionierendes SIEM ist die Grundvoraussetzung.
Prozesse härten: Freigabeprozesse müssen gegen Deepfake-Angriffe abgesichert werden. Das bedeutet: Multi-Faktor-Verifikation für kritische Transaktionen — nicht nur technisch, sondern auch organisatorisch (Callback-Verfahren, Out-of-Band-Bestätigung).
KI-Nutzung regulieren: Unternehmen brauchen klare Richtlinien für den Einsatz von KI-Diensten — inklusive Monitoring, welche Daten an externe KI-Plattformen fließen. Shadow AI ist das neue Shadow IT.
J. Benjamin Espagné
KI-Angriffe sind kein Hype — sie sind Realität im SOC
Wir sehen die Auswirkungen dieser Entwicklung täglich in unserer SOC-Arbeit. KI-generierte Phishing-Mails umgehen klassische Spamfilter, weil sie sprachlich sauber und kontextuell plausibel sind. Polymorphe Malware verändert ihre Signatur bei jeder Ausführung — rein signaturbasierte Erkennung ist damit am Ende. Und Deepfake-basierter CEO-Fraud ist keine Randerscheinung mehr, sondern ein reales Szenario, das wir in der Incident-Response-Praxis erleben.
Die gute Nachricht: Wer seine Sicherheitsinfrastruktur richtig aufstellt, kann KI-gestützte Angriffe erkennen und abwehren. Verhaltensbasierte Anomalieerkennung, kontextuelle Korrelation in einem SIEM und ein 24/7-SOC-Betrieb mit KI-Unterstützung sind die wirksamsten Gegenmaßnahmen. Genau das liefern wir mit XIEM®.
Unser konkreter Rat: Stellen Sie sicher, dass Sie über ein SIEM verfügen, das alle sicherheitsrelevanten Ereignisse korreliert. Implementieren Sie Out-of-Band-Verifikation für jede finanzielle Freigabe. Und monitoren Sie, welche Daten Ihre Mitarbeiter an KI-Dienste weitergeben. Wer das nicht tut, fliegt blind — und KI-gestützte Angreifer nutzen genau das aus.
CSO Online — 6 ways attackers abuse AI services to hack your business (Roger Grimes, 2025)
SlashNext — 2024 Phishing Intelligence Report
Harvard Business Review — AI Will Increase the Quantity and Quality of Phishing Scams (2024)
BSI — Die Lage der IT-Sicherheit in Deutschland 2024
Picus Security — Red Report 2025
NCSC UK — Impact of AI on Cyber Threat (2024)
OpenAI/Microsoft — Disrupting Malicious Uses of AI (2024)
OWASP — Top 10 for LLM Applications