KI-gestütztes Phishing ist auf dem Vormarsch [Was ist zu tun?]

Sind Sie im Jahr 2025 vor KI-gesteuertem Phishing sicher?

Die Hacker haben ihre Aktivitäten stetig ausgeweitet. Phishing-Angriffe zwischen 2022 und 2024 um 1.000% Die meisten Angriffe zielen auf die Anmeldedaten der Benutzer ab.

Untersuchungen zeigen, dass KI-generierte Cyberangriffe die von IT-Mitarbeitern und Cybersicherheitsexperten am meisten gefürchteten Angriffe im Jahr 2025 sind. Quelle.

Böswillige Akteure können KI-Plattformen wie ChatGPT oder DeepSeek nutzen, um noch überzeugendere E-Mail-Phishing-Betrügereien zu verfassen und sogar falsche Website-Domains einzurichten, die sich als legitime Websites ausgeben.

Im Jahr 2024 wurde sogar Microsoft von Bedrohungsakteure um an die Anmeldedaten der Benutzer zu gelangen.

Um sicherzustellen, dass Sie und Ihr Team vor KI-gestütztem Phishing geschützt sind, sollten wir uns mit der aktuellen Bedrohungslage und unseren besten Tipps zum Schutz sensibler Daten befassen.

Wie sich Phishing-Angriffe im Jahr 2025 entwickeln werden

Phishing ist eine Form der Internetkriminalität, die die Wahrnehmung der Legitimität des Opfers ausnutzt.

Phishing-Angriffe, die von Cybersicherheitsexperten auch als "Social Engineering" bezeichnet werden, erscheinen traditionell als legitime E-Mails von einem Kollegen oder einem vertrauenswürdigen Unternehmen. Sobald die Hacker das Vertrauen des Opfers gewonnen haben, zwingen sie die Person, persönliche Daten oder Informationen über das Unternehmen herauszugeben, die zur Erpressung von Geldern verwendet werden können.

Die sich entwickelnde Bedrohungslandschaft im Jahr 2025 hat dazu geführt, dass Phishing-Nachrichten mit maschinellem Lernen und umfangreichen Sprachmodellen verknüpft werden, so dass Hacker schnell und einfach mit Hilfe von KI generierte Phishing-E-Mails, Telefon- oder Videoanrufe erstellen können.

75% der Cyberangriffe begannen mit einer Phishing-E-Mail im Jahr 2024Dies beweist, dass das Versenden einer verdächtigen E-Mail immer noch die bevorzugte Methode von Hackern ist, um ein Unternehmen zu infiltrieren. Mit KI werden die Angriffe immer raffinierter, um Ransomware und Malware zu verbreiten und die E-Mail-Sicherheit zu gefährden.

KI macht Phishing-Angriffe immer überzeugender

Vorbei sind die Zeiten, in denen man eine Phishing-E-Mail anhand von Rechtschreib- oder Grammatikfehlern erkennen konnte. Die Betrüger nutzen generative KI um überzeugende Spearphishing-Angriffe zu inszenierenDie Daten werden in der Regel mit nur wenigen persönlichen Informationen aus dem Internet erhoben.

Laut unserem External Threat Intelligence-Bericht werden im Jahr 2024 67,4% aller Phishing-Angriffe in irgendeiner Form auf KI basieren.

KI-Tools wie ChatGPT werden eingesetzt, um die Hauptanliegen der Mitarbeiter herauszufinden und diese Schmerzpunkte in eine überzeugende Phishing-E-Mail zu verwandeln, die frei von grammatikalischen Fehlern ist. Die Wirksamkeit dieser Phishing-Nachrichten erhöht die Wahrscheinlichkeit, dass die Empfänger auf einen bösartigen Link klicken.

Ein Cybersecurity-Forscher fand heraus, dass es nur fünf Eingabeaufforderungen brauchte, um ChatGPT anzuweisen, Phishing-E-Mails für bestimmte Branchen zu generieren.

Beispiel für einen Spear-Phishing-Angriff mit generativer KI. Quelle.

Im Jahr 2024, ein multinationales Unternehmen wurde Opfer eines Deepfake-Betrugs die das Unternehmen $25 Millionen an Schaden kostete. Der Mitarbeiter wurde zu einer Telefonkonferenz mit anderen leitenden Angestellten eingeladen. In dieser Telefonkonferenz genehmigte der CFO die Zahlung von $25 Millionen aus einem, wie der Mitarbeiter meinte, legitimen geschäftlichen Grund.

Später stellte sich heraus, dass jeder Teilnehmer des Anrufs ein Deepfake war. Die Betrüger hatten öffentlich zugängliche Online-Daten von Social-Media-Plattformen wie LinkedIn abgegriffen und dann die Daten in eine KI-Technologie eingespeist, um passende Deepfake-Videos und -Audios zu erstellen. Für den Mitarbeiter waren die Betrüger siehe und klang identisch mit seinen Kollegen aus dem wirklichen Leben.

Selbst Cybersecurity-Experten können Vishing- und Phishing-Betrug nur schwer von legitimer Kommunikation unterscheiden. Nach Angaben von Reuters97% der Unternehmen haben Schwierigkeiten bei der Überprüfung der Identität.

In dieser sich entwickelnden Cyber-Bedrohungslandschaft hat die KI eine bedeutende Hürde für Unternehmen geschaffen. Es ist wichtig, sich Gedanken darüber zu machen, wie KI bei Phishing-Angriffen eingesetzt wird, damit Unternehmen neue Wege finden können, um Social-Engineering-Angriffe zu umgehen.

Die KI-Tools, die Cyber-Kriminellen helfen

KI-Tools, die von seriösen Unternehmen zur Unterstützung ihrer Mitarbeiter eingesetzt werden, werden von Cyberkriminellen genutzt, um Unternehmen zu betrügen.

Im Folgenden werden einige wichtige Instrumente vorgestellt, die Betrüger bereits bei Phishing-Angriffen eingesetzt haben:

DeepSeek: DeepSeek, ein offener KI-gestützter Chatbot aus China, wurde von Betrügern vereinnahmt um Phishing-E-Mails zu erstellen, Text in Audio und Video für Vishing-Angriffe umzuwandeln und sogar gefälschte Domänen zu erstellen, um Anmeldedaten zu erhalten.

ChatGPT und andere generative KI-Plattformen: Generative KI-Tools helfen Bedrohungsakteuren, einfach und schnell E-Mails, Code oder andere Materialien zu erstellen, um Benutzer zu täuschen und Zugang zu Systemen oder Anmeldeinformationen zu erhalten. KI kann auch eingesetzt werden, um Angriffe zu automatisieren, Phishing-Taktiken in Echtzeit anzupassen und Informationen über Ziele zu sammeln.

Bösartige LLMs WormGPT, FraudGPT, Fox8, DarkBERT und andere: Bedrohungsakteure haben bösartige große Sprachlernmodelle (LLMs) erstellt, die ihnen helfen, Malware, bösartigen Code und andere illegale Software zu erstellen.

KI-gestützte Apps zum Klonen von Stimmen und zum Fälschen von Anrufen: Hacker nutzen online gefundene Tools zum Klonen von Stimmen, um ihre Opfer zu täuschen. Die Betrüger klauen öffentlich zugängliche Daten von Führungskräften aus sozialen Medien, um sich bei Anrufen als diese auszugeben. Mithilfe von Spoofing-Apps können die Hacker so tun, als würden sie von der Telefonnummer der Person anrufen, für die sie sich ausgeben.

Als DeepSeek verwendet wurde, um Anmeldedaten zu sammeln...

Dieses Jahr haben die Bedrohungsakteure Einrichtung ähnlicher DeepSeek-Seiten um ahnungslose Benutzer dazu zu bringen, sensible Informationen wie Anmeldedaten und Logins preiszugeben.

CybelAngels Anträge auf Löschung von gefälschten Domains um 116% im Jahr 2024 angestiegen im Vergleich zum Vorjahr. Gefälschte Domains, die durch KI-Technologie erstellt werden, werden zu einem echten Problem.

In einem Fall, stießen Bedrohungsforscher auf bösartige Python-Pakete aus einer gefälschten DeepSeek-Anwendung. Innerhalb weniger Minuten fanden die Cybersecurity-Experten die Pakete und entfernten sie innerhalb einer Stunde.

Gefälschte DeepSeek-Pakete sind in das Netzwerk von Bedrohungsforschern eingedrungen. Quelle.

Die Pakete wurden jedoch noch über 200 Mal heruntergeladen, bevor sie entfernt wurden. Die Analyse ergab, dass die gefälschten DeepSeek-Pakete bösartige Funktionen zum Sammeln von Benutzer- und Systemdaten enthielten.

Die Malware war so konzipiert, dass sie die gestohlenen Daten über eine Integrationsplattform an einen Command-and-Control-Server sendete. Der Angriff richtete sich an Entwickler und Personen mit Cybersecurity-Kenntnissen und nutzte den Hype um DeepSeek aus.

Telefonspoofing wurde eingesetzt, um sich als eine Führungskraft auszugeben...

Auf künstlicher Intelligenz basierende Software wurde verwendet sich als Führungskraft in einem multinationalen Unternehmen auszugebenDadurch können Hacker Tausende von Dollar erbeuten.

Der Angestellte wurde telefonisch von einem angeblichen Chef der deutschen Muttergesellschaft kontaktiert. Er wurde gebeten, $243.000 auf das Bankkonto eines ungarischen Lieferanten zu überweisen.

Die KI-Technologie war in der Lage, den leichten deutschen Akzent der Führungskraft und sogar die Melodie seiner Stimme zu imitieren.

Spoofing von Anrufen und AI-Stimmenklonen machte es für den Mitarbeiter unmöglich, einen Phishing-Angriff zu vermuten.

Bösartige GenAI wird für die Orchestrierung von Cyberangriffen eingesetzt...

Im Dark Web haben Hacker ihre eigene generative KI-Plattform geschaffen. FraudGPT wurde erstmals im Jahr 2023 beworben, um Betrügern bei der Durchführung von Phishing-Kampagnen zu helfen.

FraudGPT wird in einem Hacker-Forum beworben. Quelle.

Mit einer ähnlichen Schnittstelle wie ChatGPT verfügt FraudGPT über keinerlei Sicherheitsvorkehrungen, die es daran hindern, Anfragen zu erfüllen, wie z. B. das Schreiben von bösartigem Code oder das Erstellen von Phishing-E-Mails, die den Anschein erwecken, von einem seriösen Unternehmen zu stammen.

WormGPT wurde ebenfalls verwendet, um personalisierte E-Mails für Phishing-Angriffe zu automatisieren und Malware und bösartigen Code zu erstellen. Ein Cybersicherheitsteam hat WormGPT getestet und festgestellt, dass es Python-Skripte erzeugen kann, die in der Lage sind Sammeln von Anmeldeinformationen.

Hacker setzen bei ihren Angriffen auf Social Engineering

Wenn Sie einen Anruf von Ihrem Vorgesetzten erhielten, der echt aussah und sich auch so anhörte, wie würden Sie ihn von einer Fälschung unterscheiden können?

Bedrohungsakteure verlassen sich darauf, dass ihre Ziele dem Phishing-Versuch vertrauen-so normal wie möglich erscheinen lassen. Das Erkennen von Zwangshinweisen bei Begegnungen kann die wahren Absichten der Betrüger aufdecken.

Wie Social Engineering bei Angriffen eingesetzt wird:

Voreingenommenheit der Behörden: Bedrohungsakteure geben sich als Autoritätspersonen aus, z. B. als Führungskräfte oder IT-Manager, um die Opfer zur Herausgabe vertraulicher Informationen zu bewegen.

Reziprozitätsvorurteil: Social Engineers nutzen unsere menschliche Neigung aus, anderen zu helfen. Als Gegenleistung für Informationen können Hacker Belohnungen oder andere Unterstützung anbieten.

Sozialer Beweis: Bedrohungsakteure machen sich die Tendenz zunutze, den Handlungen anderer zu folgen, indem sie "Beweise" dafür liefern, dass andere Kollegen bestimmte Handlungen bereits genehmigt haben.

Dringlichkeitsverzerrung: Hacker üben Zeitdruck auf ihre Opfer aus, um sie zum sofortigen Handeln zu bewegen. Sie können sie auffordern, schnell Geld zu überweisen oder sensible Daten ohne die üblichen Genehmigungsschleifen bereitzustellen.

Optimismus-Verzerrung: Cyberkriminelle machen sich die Tendenz der Menschen zunutze, positive Ergebnisse zu überschätzen und Risiken zu unterschätzen. Beispiele sind gefälschte Stellenanzeigen oder Betrug mit Insiderinformationen.

Bewährte Verfahren zur Verhinderung von Phishing-Angriffen im Jahr 2025

Bedrohungsakteure nutzen soziale Medien und Materialien der Unternehmensführung mit KI, um ihre Phishing-Versuche legitimer aussehen zu lassen.

Es ist wichtig, dass Sie Ihre Konten und Ihre IT-Infrastruktur schützen und auf hyperrealistisches Phishing-Material achten.

Im Folgenden finden Sie einige bewährte Verfahren zur Verhinderung von Phishing-Versuchen mit Hilfe von KI:

  1. Aktivieren Sie die Multi-Faktor-Authentifizierung (MFA): MFA bietet eine zusätzliche Sicherheitsebene indem mehrere Formen der Verifizierung verlangt werden, was es für Bedrohungsakteure schwieriger macht, Systeme zu infiltrieren. MFA kann zwar Phishing-Bedrohungen nicht verhindern, aber den unbefugten Zugriff unterbinden.
  2. Durchführung regelmäßiger Schwachstellenbewertungen: Testen Sie Ihre Systeme regelmäßig, um Schwachstellen zu erkennen und zu beheben, bevor Angreifer sie ausnutzen können.
  3. Bilden Sie Ihr Team aus: Schulung der Mitarbeiter in der Erkennung von Phishing-Versuchen und anderen Social-Engineering-Taktiken, die von APT-Gruppen eingesetzt werden, sowie in der Einhaltung von Datenschutzprotokollen. Simulationen von Phishing-Angriffen, auch Red Teaming genanntkann erfolgreich sein, indem sie reale Szenarien liefert.
  4. Investieren Sie in Bedrohungsdaten: Nutzen Sie Dienste, die Echtzeitdaten über potenzielle Bedrohungen für Ihre Branche liefern, wie z.B. CybelAngel. Das Management digitaler Risiken mit umsetzbaren Bedrohungsdaten über Oberflächen-, Deep- und Dark-Web-Quellen stellt sicher, dass jeder Verstoß erkannt wird, bevor es zu spät ist.

Laden Sie unseren neuen Jahresbericht herunter

Unser Bericht über externe Bedrohungen 2025Todd Carroll, CISO von CybelAngel, fand heraus, dass integrierte KI-Erkennungstools die effektivste Methode sind, um KI-gestützte Phishing-Versuche zu erkennen und zu melden.

In der sich ständig weiterentwickelnden Landschaft der Cybersicherheit ist es von entscheidender Bedeutung, neuen Bedrohungen immer einen Schritt voraus zu sein.

Unser umfassender Bericht für das Jahr 2025 befasst sich mit den neuesten Trends und Taktiken im Bereich KI-gestütztes Phishing und bietet wertvolle Einblicke und umsetzbare Strategien zum Schutz Ihres Unternehmens.

Laden Sie Ihr Exemplar des Berichts hier herunter.