KI-gestützte Cyber-Bedrohungen sind die größten Herausforderungen für Cybersicherheitsexperten im Jahr 2026. Die internationale Fachorganisation ISACA (früher „Information Systems Audit and Control Association“) untersucht regelmäßig, welche technologischen Trends IT‑ und Cybersicherheitsverantwortliche besonders beschäftigen. In ihrer am 21. Oktober 2025 veröffentlichten „Tech Trends & Priorities Pulse Poll“ wertete ISACA die Einschätzungen europäischer IT‑ und Cybersicherheitsexperten zum Jahr 2026 aus. Demnach betrachten 59 Prozent der Befragten KI‑gestützte Cyber‑Bedrohungen und Deepfakes als ihre größte Herausforderung. Neben der Sorge vor Deepfakes nannten die Experten insbesondere KI‑basiertes Social Engineering, Ransomware‑/Erpressungskampagnen und Insider‑Bedrohungen als zentrale Gefahren (isaca.org).
Diese Befunde verdeutlichen, wie stark generative Modelle und verwandte Technologien die Angriffsflächen von Organisationen erweitern. Um die theoretischen Ergebnisse greifbarer zu machen, folgen im nächsten Abschnitt Praxisbeispiele, die typische Angriffsszenarien aus der Studie illustrieren. Sie zeigen, wie Angreifer KI nutzen, um Phishing‑Mails, Social‑Engineering‑Angriffe, Desinformationskampagnen, adaptive Malware sowie Passwort‑ und Identitätsattacken effizienter und glaubwürdiger zu gestalten – und machen gleichzeitig deutlich, welche Sicherheitsstrategien ohne KI-Einsatz zuvor üblich waren.
Praxisbeispiele für KI-gestützte Cyber-Bedrohungen
Automatisiertes Phishing durch KI-Bots
Bevor Künstliche Intelligenz Einzug hielt, waren Phishing‑Angriffe überwiegend mühsame Handarbeit. Cyberkriminelle verwendeten einfache, statische Textvorlagen, die massenhaft per E‑Mail versendet wurden. Diese Nachrichten wirkten oft unprofessionell – sie wiesen auffällige
Rechtschreib‑ und Grammatikfehler auf, verwendeten falsche oder unpersönliche Anreden und waren kaum auf ein bestimmtes Unternehmen zugeschnitten. Auch das stimmige Nachahmen des Sprachstils oder der visuellen Gestaltung einer Zielorganisation war ohne intelligente
Sprachmodelle nahezu unmöglich. Antworten auf Rückfragen mussten Angreifer manuell formulieren, was die Zahl paralleler Betrugsversuche begrenzte. Sicherheitsabteilungen hatten dadurch mehr Zeit, verdächtige E‑Mails zu erkennen und abzuwehren.
Heute nutzen Cyberkriminelle generative Sprachmodelle, um täuschend echte Phishing‑E‑Mails in großem Umfang zu erzeugen. KI‑Bots können den sprachlichen Stil bestimmter Unternehmen oder Behörden überzeugend imitieren und sogar automatisiert auf Rückfragen reagieren
(„conversational phishing“).
Ein Beispiel aus dem Jahr 2024: AI‑Phishing gegen eine indische Bank (Frühjahr 2024): Einem Bericht der indischen Cyber‑Peace‑Foundation zufolge nutzten Angreifer einen großen Sprachmodell‑Ansatz, um interne E‑Mails des Managements einer führenden Bank zu imitieren. Die KI analysierte öffentlich zugängliche Inhalte wie LinkedIn‑Profile und Social‑Media‑Posts der Vorstandsmitglieder, ahmte deren Schreibstil nach und erzeugte täuschend echte Nachrichten, die die Empfänger auf eine gefälschte Portalseite führten. Mehrere Führungskräfte gaben daraufhin ihre Zugangsdaten ein, was zu einem größeren Datendiebstahl und Betriebsstörungen führte, (Research Report: AI-Driven Phishing Attack on a Financial Institution
in India (2024) ).
Social Engineering mit Deepfake-Stimmen und Chatbots
Bevor Künstliche Intelligenz in der Cybersicherheitswelt präsent war, beruhte Social‑Engineering vor allem auf menschlicher Täuschung. Angreifer kontaktierten ihre Opfer telefonisch oder per E‑Mail und gaben sich als Kolleginnen, Vorgesetzte oder externe Dienstleister aus, um vertrauliche Informationen zu erlangen oder Transaktionen zu veranlassen. Ohne KI‑gestützte Deepfake‑Stimmen und interaktive Chatbots mussten sie mit ihrer eigenen Stimme arbeiten oder auf generische Skripte zurückgreifen. Dadurch war es schwer, Tonfall, Sprechtempo oder
Ausdruck echter Führungskräfte überzeugend zu imitieren. Gleichzeitig ließ sich nur eine begrenzte Anzahl von Personen erreichen, weil jeder Anruf und jede Antwort manuell betreut werden mussten. Diese Einschränkungen machten viele Betrugsversuche leichter erkennbar und schränkten die Skalierbarkeit solcher Angriffe erheblich ein.
Mit der Verfügbarkeit generativer Sprachmodelle hat sich das Bild dramatisch verändert. KI‑basierte Systeme erzeugen täuschend echte Stimmen und dialogfähige Chatbots (s.h. Urteil des Landgericht Berlin LG Berlin II vom 20. August 2025 Aktenzeichen 2 O 202/24), die gezielt für Voice‑Phishing („Vishing“) oder simulierte Support‑Anrufe eingesetzt werden. Sie können in Echtzeit auf Rückfragen reagieren und den Sprachstil bestimmter Personen oder Organisationen erstaunlich präzise nachahmen, wodurch das Vertrauen der Opfer schneller erschlichen wird.
Ein eindrückliches Beispiel: In einem dokumentierten Fall imitierte ein KI‑System die Stimme eines CFO so überzeugend, dass es im Unternehmen eine interne Überweisung auslöste – der Betrug fiel erst bei einer späteren telefonischen Rückbestätigung auf (So funktioniert KI-Sicherheit im Zahlungsverkehr).
Adaptive Malware mit KI-Komponenten
Moderne Schadsoftware nutzt Künstliche Intelligenz, um ihr Verhalten dynamisch an die jeweilige Umgebung anzupassen und Sicherheitsmechanismen gezielt zu umgehen. Anstatt starr vorgegebene Abläufe auszuführen, analysiert die Malware mithilfe von KI-Komponenten
kontinuierlich ihre Laufzeitumgebung, erkennt Sicherheitsprogramme, Firewalls oder Sandboxes und verändert daraufhin automatisch ihren Code oder ihre Kommunikationsmuster. Dadurch wird eine klassische signaturbasierte Erkennung nahezu unmöglich, da jede Instanz der Schadsoftware ein anderes Erscheinungsbild und Verhalten zeigt.
Ein anschauliches Beispiel ist der PoC BlackMamba, der 2024 demonstrierte, wie ein Sprachmodell zur Laufzeit neuen, polymorphen Schadcode erzeugen kann (BlackMamba: Using AI to Generate Polymorphic Malware). Das Programm nutzte ein integriertes KI-Modul, um sich selbst ständig zu modifizieren, seine Funktionen zu verschleiern und so gängige Sicherheitslösungen wie Virenscanner oder Intrusion-Detection-Systeme zu überlisten. Diese Technik markiert einen Paradigmenwechsel in der Malware-Entwicklung, da Angriffe nicht mehr statisch, sondern adaptiv und lernfähig gestaltet werden – vergleichbar mit einem Gegner, der in Echtzeit auf jede Verteidigungsmaßnahme reagiert.
