• Wenn KI die Seiten wechselt: 6 Wege, wie Angreifer KI-Dienste gegen Ihr Unternehmen einsetzen

    Künstliche Intelligenz verändert die Cybersecurity-Landschaft — aber nicht nur auf der Verteidigerseite. Angreifer nutzen dieselben KI-Dienste, die Unternehmen für Produktivität und Innovation einsetzen, als Angriffsinfrastruktur. Dabei geht es längst nicht mehr nur um KI-generierte Phishing-Mails. Die Methoden sind systematischer, kreativer und gefährlicher geworden.

    Der CSO-Online-Autor Roger Grimes hat sechs zentrale Missbrauchsmuster identifiziert, die wir hier mit zusätzlichen Quellen und unserer Einschätzung einordnen.

    1. KI-gestütztes Social Engineering und Phishing

    Large Language Models erzeugen Phishing-Mails, die sprachlich, kontextuell und stilistisch kaum noch von legitimer Kommunikation zu unterscheiden sind. Angreifer nutzen ChatGPT, Claude oder lokale Open-Source-Modelle, um in Sekunden hunderte individualisierte Nachrichten zu generieren — in jeder Sprache, in jedem Tonfall. Laut einer Studie von SlashNext stieg die Zahl KI-generierter Phishing-E-Mails allein 2024 um über 1.200 Prozent. Harvard Business Review berichtet, dass 60 Prozent der Empfänger auf KI-generierte Phishing-Mails hereinfallen — eine Rate, die mit manuell erstellten, gezielten Spear-Phishing-Angriffen vergleichbar ist.

    Besonders perfide: Die Modelle werden mit öffentlich verfügbaren Informationen aus LinkedIn, Unternehmenswebsites und Pressemitteilungen gefüttert. Das Ergebnis sind hochgradig personalisierte Nachrichten, die gezielt Vertrauensverhältnisse ausnutzen.

    2. Deepfake-Audio und -Video für CEO-Fraud

    Deepfake-Technologie ist kein Zukunftsszenario mehr — sie ist operatives Angriffswerkzeug. Angreifer klonen Stimmen von Geschäftsführern und Vorständen aus öffentlich verfügbaren Aufnahmen (Podcasts, Konferenz-Talks, YouTube-Videos) und setzen sie für CEO-Fraud ein. Der prominenteste Fall: Ein Finanzangestellter in Hongkong überwies 25 Millionen US-Dollar, nachdem er in einer Videokonferenz von Deepfake-Versionen seiner Kollegen und seines CFOs überzeugt wurde.

    Laut dem BSI-Lagebericht 2024 nimmt die Qualität von Deepfake-Angriffen rapide zu. Voice-Cloning benötigt heute nur noch wenige Sekunden Audiomaterial und ist mit frei verfügbaren Tools realisierbar. Für Unternehmen bedeutet das: Jede telefonische oder videobasierte Freigabe-Anforderung ohne Out-of-Band-Verifikation ist ein Sicherheitsrisiko.

    3. KI-generierter Schadcode und polymorphe Malware

    Angreifer nutzen KI-Modelle, um Malware zu erzeugen, die sich bei jeder Ausführung verändert — sogenannte polymorphe Malware. Sicherheitsforscher von Hoxhunt und Picus Security haben nachgewiesen, dass aktuelle LLMs in der Lage sind, funktionsfähige Exploit-Codes, Obfuscation-Layer und Evasion-Techniken zu generieren. Picus Security dokumentierte im “Red Report 2025”, dass KI-gesteuerte Malware-Kampagnen um 500 Prozent zugenommen haben.

    Selbst wenn die großen Anbieter Schutzmechanismen einbauen (Guardrails), werden diese systematisch umgangen — durch Prompt Injection, Jailbreaks oder durch den Einsatz unzensierter Open-Source-Modelle wie WormGPT oder FraudGPT, die explizit für kriminelle Zwecke trainiert wurden.

    4. Automatisierte Schwachstellensuche und Reconnaissance

    Was früher Wochen manueller Arbeit erforderte, erledigen KI-gestützte Tools in Minuten. Angreifer setzen Large Language Models ein, um öffentlich zugängliche Informationen (OSINT) systematisch auszuwerten, Angriffsflächen zu kartieren und bekannte Schwachstellen automatisch mit Exploit-Code zu verknüpfen. Google DeepMind zeigte mit Project Naptime, dass KI-Agenten eigenständig Schwachstellen in Software finden können — und das mit einer Erfolgsrate, die menschliche Analysten in bestimmten Szenarien übertrifft.

    Für Angreifer senkt das die Eintrittsbarriere massiv: Technisch weniger versierte Akteure können mit KI-Unterstützung Angriffe durchführen, die früher APT-Gruppen vorbehalten waren. Das NCSC (National Cyber Security Centre, UK) bestätigte in seinem 2024-Assessment, dass KI die Geschwindigkeit und Effektivität von Cyberangriffen nachweislich erhöht.

    5. Missbrauch legitimer KI-Infrastruktur

    Ein besonders unterschätzter Angriffsvektor: Angreifer nutzen die API-Infrastruktur legitimer KI-Dienste als Teil ihrer Angriffskette. Dazu gehört die Nutzung von KI-Plattformen zur Datenexfiltration (Zusammenfassungen sensibler Dokumente generieren lassen), die Verwendung von KI-Code-Assistenten zur Identifikation von Schwachstellen in gestohlenem Quellcode, sowie die Nutzung von KI-Übersetzungsdiensten für mehrsprachige Angriffskampagnen.

    Microsoft und OpenAI dokumentierten bereits 2024, dass staatlich unterstützte Hackergruppen — darunter Gruppen aus Russland (Forest Blizzard/APT28), China (Charcoal Typhoon), Nordkorea (Emerald Sleet) und dem Iran (Crimson Sandstorm) — aktiv ChatGPT für Reconnaissance, Skripting und Social Engineering nutzen.

    6. Prompt Injection und Manipulation von KI-Agenten

    Mit der zunehmenden Integration von KI-Agenten in Geschäftsprozesse (Kundensupport, Datenanalyse, automatisierte Workflows) entsteht eine neue Angriffsfläche: Prompt Injection. Angreifer schleusen manipulierte Anweisungen in Datenquellen ein, die von KI-Agenten verarbeitet werden — etwa in E-Mails, Dokumente oder Webseiten. Der Agent führt dann Aktionen im Kontext seiner Berechtigungen aus, ohne dass ein Mensch eingreift.

    OWASP hat Prompt Injection in seine Top-10-Liste der LLM-Sicherheitsrisiken aufgenommen (Platz 1). Forscher von Anthropic, Google und Microsoft haben unabhängig voneinander demonstriert, wie Indirect Prompt Injection in Enterprise-Szenarien zu Datenabfluss, unautorisiertem Zugriff und Manipulation von Geschäftsentscheidungen führen kann.

    Was bedeutet das für Unternehmen?

    Die Konvergenz von KI und Cyberangriffen verschärft eine ohnehin angespannte Bedrohungslage. Unternehmen müssen ihre Sicherheitsarchitektur anpassen — und zwar nicht irgendwann, sondern jetzt. Drei Handlungsfelder sind dabei zentral:

    Sichtbarkeit schaffen: Wer nicht sieht, was in seinem Netz passiert, erkennt weder KI-generierte Phishing-Mails noch den Missbrauch interner KI-Dienste. Ein funktionierendes SIEM ist die Grundvoraussetzung.

    Prozesse härten: Freigabeprozesse müssen gegen Deepfake-Angriffe abgesichert werden. Das bedeutet: Multi-Faktor-Verifikation für kritische Transaktionen — nicht nur technisch, sondern auch organisatorisch (Callback-Verfahren, Out-of-Band-Bestätigung).

    KI-Nutzung regulieren: Unternehmen brauchen klare Richtlinien für den Einsatz von KI-Diensten — inklusive Monitoring, welche Daten an externe KI-Plattformen fließen. Shadow AI ist das neue Shadow IT.

  • KI beschleunigt Exploits – die Lücke zwischen Bekanntwerden und Angriff schrumpft drastisch

    Künstliche Intelligenz verändert die Sicherheitslandschaft in einem Tempo, dem viele Unternehmen nicht folgen können. Aktuelle Analysen des SANS Institute zeigen: KI beeinflusst nicht nur die Verteidigung, sondern vor allem das Timing von Angriffen. Der Zeitraum zwischen der öffentlichen Bekanntgabe einer Schwachstelle und ihrer ersten aktiven Ausnutzung verkürzt sich von Wochen auf Stunden oder Minuten.

    Von Disclosure zu Exploit: Das Zeitfenster schrumpft

    Das klassische Sicherheitsmodell basiert auf einem Ablauf: Schwachstelle wird bekannt → Hersteller veröffentlicht Patch → Unternehmen spielt Patch ein → System ist geschützt. Dieses Modell funktionierte, solange zwischen Disclosure und Exploitation Wochen oder Monate lagen.

    KI verändert diese Gleichung fundamental. Sobald technische Details zu einer Schwachstelle verfügbar sind — sei es durch ein Advisory, einen CVE-Eintrag oder einen Commit in einem Open-Source-Repository — können KI-gestützte Systeme automatisiert Exploit-Code generieren. Die manuelle Analyse durch einen erfahrenen Exploit-Entwickler, die früher Tage dauerte, wird durch LLMs auf Stunden oder Minuten komprimiert.

    Ein konkretes Beispiel: Die Langflow-Schwachstelle CVE-2026-33017 wurde innerhalb von 20 Stunden nach Veröffentlichung des Advisories aktiv ausgenutzt — ohne dass ein öffentlicher Exploit existierte. Das Advisory allein enthielt genug Information, um einen funktionierenden Exploit zu konstruieren.

    Fast-Flux-Netzwerke: Dynamische Angriffs-Infrastruktur

    Parallel zur KI-beschleunigten Exploit-Entwicklung warnt die NSA gemeinsam mit internationalen Partnern vor der zunehmenden Nutzung sogenannter Fast-Flux-Netzwerke. Dabei wechseln Angreifer IP-Adressen und DNS-Zuordnungen extrem schnell, um Command-and-Control-Server, Exploit-Infrastruktur und Malware-Verteilung zu verschleiern.

    Die NSA stuft Fast-Flux inzwischen als nationale Sicherheitsbedrohung ein. Besonders kritisch: Staatlich unterstützte Akteure und organisierte Cybercrime-Gruppen nutzen diese Technik, weil sie Erkennung, Attribution und Abschaltung erheblich erschwert.

    In Kombination mit KI-gestützter Schwachstellenanalyse entsteht eine neue Dynamik: Automatisierte Systeme generieren Exploits, bauen dynamische Infrastruktur auf und führen Angriffe nahezu in Echtzeit durch — schneller als jeder manuelle Patch-Zyklus reagieren kann.

    Warum klassische Verteidigungsmodelle versagen

    Drei strukturelle Defizite werden sichtbar:

    • Reaktive Sicherheitsmodelle: Das Muster „Disclosure → Bewertung → Patch → Monitoring” funktioniert nicht mehr, wenn Angriffe beginnen, bevor ein Patch verfügbar ist oder eingespielt werden kann
    • Statische Erkennung: Fast-Flux-Netzwerke umgehen statische Blocklisten, klassische IOC-Feeds und einfache DNS-Filter. Ohne verhaltensbasierte Erkennung bleiben diese Aktivitäten unsichtbar
    • Manuelle Reaktion: Wenn der Angriff automatisiert ist, muss auch die Verteidigung automatisiert sein. Alarme, die erst am nächsten Morgen gesichtet werden, kommen zu spät

    Handlungsempfehlungen

    • Automatisierte Schwachstellenkorrelation: Neue CVEs müssen unmittelbar mit eigener Telemetrie, Threat Intelligence und Exposure-Daten abgeglichen werden — ohne manuelle Verzögerung
    • DNS-Anomalie-Erkennung: Schnelle IP-Rotationen, verdächtige DNS-Auflösungen und ungewöhnliche Kommunikationsmuster aktiv überwachen, um Fast-Flux-Netze frühzeitig zu identifizieren
    • Proaktive Abwehr statt Patch-Abhängigkeit: Virtuelle Patches, Netzwerksegmentierung und adaptive Zugriffskontrollen müssen bereits greifen, bevor ein offizielles Update verfügbar ist
    • SIEM mit Verhaltensanalyse: Signaturbasierte Erkennung reicht nicht mehr. Verhaltensbasierte Regeln erkennen Exploitation-Muster unabhängig von der spezifischen CVE
    • 24/7-Monitoring: Wenn Angreifer in Minuten zuschlagen, kann die Erkennung nicht bis zum nächsten Arbeitstag warten

Keine weiteren News.

Keine weiteren News.

Sicherheitslücken schließen. Risiken senken. Jetzt handeln!

Unsere Experten zeigen Ihnen live, wie wir Angriffe erkennen, stoppen und Ihr Unternehmen schützen.

Blog

Aktuelle Sicherheitsereignisse