United Kingdom - Flag United Kingdom

Incoterms:DDP
All prices include duty and customs fees on select shipping methods.

Please confirm your currency selection:

British Pounds
Free shipping on most orders over £33 (GBP)

Euros
Free shipping on most orders over 50 € (EUR)

US Dollars
Free shipping on most orders over $60 (USD)

Bench Talk for Design Engineers

Mouser German Blog

rss

Mouser Electronics, Inc german language blogs


Wie generative KI Phishing-Angriffe gefährlicher macht Steven Keeping

 

 

Anat art/stock.adobe.com; generiert mit KI

Künstliche Intelligenz (KI) hinterlässt in vielerlei Hinsicht ihre Spuren. Der Hype ist riesig, und große Sprachmodelle (LLMs) wie ChatGPT geben einen ersten kleinen Einblick in das Potenzial generativer KI (GenAI). Dieses Potenzial ist enorm: Die UC San Diego prognostiziert beispielsweise, dass wir mit KI unter anderem chronische Krankheiten behandeln, selbstfahrende Fahrzeuge für Lieferungen und Transporte betreiben, die Vorhersage von „atmosphärischen Flüssen“ verbessern und automatisierte lebensrettende Notfallmaßnahmen durchführen können.[1]

Aber das Gute bringt zwangsläufig auch das Schlechte mit sich. Auch böswillige Akteure nutzen die Leistungsfähigkeit der KI. Ein Beispiel ist das GenAI-Phishing. Phishing ist nichts Neues: E-Mails von nigerianischen Prinzen, die Ihnen Millionen auf Ihr Bankkonto überweisen wollen, gegen eine ordentliche Provision, gibt es schon seit den Anfängen der E-Mail. Für viele waren diese Phishing-E-Mails leicht zu durchschauen, da sie voller Rechtschreib- und Grammatikfehler waren und Angebote enthielten, die einfach zu gut waren, um wahr zu sein. KI-Phishing ändert dies, indem es den Phishing-Prozess mit cleveren und ausgeklügelten Inhalten aufwertet, die selbst den technisch versiertesten Verbraucher täuschen können.

Laut der Halbjahresbilanz 2024 des Cybersicherheitsunternehmens SlashNext haben Phishing-Betrüger allein im Jahr 2022 über 2 Milliarden US-Dollar erbeutet. Seit dem vierten Quartal 2022 – als ChatGPT eingeführt wurde – stieg die Zahl der bösartigen Phishing-E-Mails um 4.151 Prozent.[2]

In diesem Beitrag untersuchen wir, wie Hacker GenAI nutzen, um ihre Phishing-Betrügereien noch überzeugender zu gestalten. Zum Schutz vor diesen Angriffen müssen Cybersicherheitsexperten wissen, wie Cyberkriminelle diese Technologie ausnutzen, und dann KI als Abwehrmechanismus einsetzen.

Was ist Phishing?

Phishing hat seinen Ursprung vermutlich in den 1990er-Jahren. Frühe Phishing-Techniken bestanden darin, dass Hacker sich als Mitarbeiter von America Online (AOL) ausgaben, um Nutzer dazu zu bringen, ihre Anmeldedaten und andere persönliche Informationen preiszugeben.[3]

Heute versenden Hacker mit einer gestohlenen E-Mail-Liste aus dem Dark Web Tausende von Nachrichten – laut dem IT-Anbieter AAG werden es im Jahr 2025 bis zu 3,4 Milliarden Spam-E-Mails pro Tag sein.[4] Die meisten werden gelöscht, aber gelegentlich fällt jemand einem Betrug zum Opfer, vielleicht aus Angst oder Neugier, und klickt auf bösartige URLs, lädt virenverseuchte Dateien herunter oder gibt Authentifizierungsinformationen und persönliche Daten weiter, mit denen Cyberkriminelle auf Bankkonten zugreifen können.

Phishing ist zwar seit Jahrzehnten ein Problem, aber einfach umzusetzende Best Practices haben dazu beigetragen, herkömmliche Betrugsmaschen zu vermeiden. Rechtschreib- und Grammatikfehler, Formatierungsprobleme, falsche Namen, schlecht reproduzierte Firmenlogos und seltsame E-Mail-Absenderadressen verraten Betrüger. Leider ändert GenAI all das und diese bewährten Verfahren werden infrage gestellt.

Phishing mit generativer KI

Durch die Nutzung eines Deep-Learning-Modells können Cyberkriminelle mit GenAI schnell hochwertige Texte, Bilder und Inhalte auf Grundlage des Echtzeitverhaltens der Nutzer generieren. GenAI ändert nichts am grundlegenden Mechanismus eines Phishing-Angriffs; im Wesentlichen handelt es sich um ein Zahlenspiel. Der Unterschied besteht darin, dass die KI es Kriminellen ermöglicht, komplexe, gezielte Kampagnen, die nur schwer zu erkennen sind, viel schneller und einfacher zu starten, anstatt Millionen von E-Mails an zufällig ausgewählte Empfänger zu versenden.

KI hat viele der Probleme gelöst, die bei früheren Spam-Versuchen auftraten. So sind beispielsweise Grammatik und Rechtschreibung perfekt, Firmenlogos werden originalgetreu reproduziert und der Schreibstil ist überzeugend und prägnant.

Angriffe können sogar zeitlich genau abgestimmt werden, um die Aufmerksamkeit des Zielkonsumenten zu erregen. So können LLMs beispielsweise Echtzeitinformationen von Content-Produzenten, Einzelhändlern und Nachrichten-Websites erfassen und aktuelle Details in die Phishing-E-Mails einfließen lassen. Solche Details machen die Nachrichten glaubwürdig und nötigen die Zielpersonen, auf Handlungsaufforderungen zu reagieren.

KI ermöglicht es Hackern auch, neue Tricks auszuprobieren. Vergessen Sie E-Mails – wie wäre es, wenn Sie GenAI verwenden, um die Stimme eines vertrauenswürdigen Kontakts zu klonen und gefälschte Audioaufnahmen zu erstellen? Was tun Sie, wenn Sie eine Sprachnachricht von einem gefälschten Vorgesetzten erhalten, der genau wie Ihr Chef klingt und Sie um eine Überweisung bittet?

Es ist für diese Cyberkriminellen nicht besonders schwierig, an die Tools zu gelangen, die sie für ihre ersten Schritte benötigen. Kostenlose Hacker-Tools wie das berüchtigte WormGPT – eine kostenlose Version von OpenAI, das die Grundlage für das LLM von ChatGPT bildet – oder kostenpflichtige Software wie FraudGPT sind im Dark Web leicht erhältlich. Beides sind GenAI-Tools ohne Sicherungsmaßnahmen, die dazu dienen, Phishing-E-Mails zu erstellen, bestimmte Websites zu fälschen oder Stimmen zu simulieren.

Phishing mit generativer KI durch Einsatz von KI bekämpfen

Wie kann man sich also wehren? Eine Möglichkeit besteht darin, Sicherheitsmaßnahmen für Unternehmens-E-Mails zu nutzen, die auf dem Sicherheitsprotokoll DMARC (Domain-based Message Authentication, Reporting and Conformance) basieren. Dieses Protokoll überprüft die Identität von E-Mail-Absendern mithilfe der Protokolle DNS (Domain Name Server), SPF (Sender Policy Framework) und DKIM (DomainKeys Identified Mail). DMARC ist besonders geeignet, um Betrug mit den eigenen Domains eines Unternehmens zu verhindern. Diese Phishing-Technik wird häufig eingesetzt, um Mitarbeiter zur Preisgabe sensibler Unternehmensdaten zu verleiten. Allerdings erfordert dieser Ansatz Listen mit bekannten bösartigen Absendern.

Wirksamer ist der Einsatz von KI zur Erkennung von KI-Betrug. KI-Tools haben sich bei der Erkennung von Phishing-Versuchen bewährt, die selbst mit KI arbeiten. Anstatt frühere Angriffe zu analysieren und Hacker zu verfolgen, trainieren moderne Tools anhand von Echtzeit-Geschäftsdaten, beispielsweise wie Mitarbeiter mit ihrem Posteingang interagieren. Defensive KI verfolgt Dinge wie Stil, Stimmung, Inhalt sowie wann und wie Mitarbeiter Links folgen oder teilen. Auf diese Weise können KI-Tools den Kontext und ein tiefes Verständnis dafür gewinnen, wie „normale“ Kommunikation aussieht, um verdächtige Aktivitäten zu erkennen, die auf einen Angriff hindeuten könnten.

Fazit

Böswillige Akteure nutzen bereits die Leistungsfähigkeit der generativen KI. Ein Beispiel dafür ist die Optimierung des Phishing-Prozesses durch clevere und fortschrittliche Inhalte, die selbst technisch versierte Verbraucher täuschen können. Grammatik und Rechtschreibung sind korrekt, die Unternehmensdarstellung ist makellos und der Text ist überzeugend. Angriffe können sogar zeitlich genau abgestimmt werden, um die Aufmerksamkeit des Zielkonsumenten zu erregen. So können LLMs beispielsweise Echtzeitinformationen erfassen und aktuelle Details in die Phishing-E-Mails einfließen lassen.

Um sich vor diesen gezielten Phishing-Angriffen zu schützen, müssen Cybersicherheitsexperten verstehen, wie Cyberkriminelle die Technologie ausnutzen, und dann KI zu Verteidigungszwecken einsetzen. Moderne defensive KI-Tools erfassen den Kontext und entwickeln ein tiefes Verständnis dafür, wie normale Aktivitäten aussehen, um Veränderungen zu erkennen, die auf einen Phishing-Versuch hindeuten.

 

Quellen

[1]

 https://today.ucsd.edu/story/7-ai-powered-technologies-you-should-know-about

[2]

 https://slashnext.com/press-release/slashnext-mid-year-state-of-phishing-report-shows-341-increase-in-bec-and-advanced-phishing-attacks/

[3]

 https://www.phishfirewall.com/phishing-playbook-chapters/the-evolution-of-phishing-attacks

[4]

 https://aag-it.com/the-latest-phishing-statistics/

 



« Zurück


Steven Keeping besitzt einen Bachelor of Electronic Engineering with Honors (BEng (Hons.)) von der Brighton University (UK). Nach seinem Abschluss arbeitete sieben Jahre lang in der Elektronikabteilung von Eurotherm und BOC. Anschließend war er erst beim Magazin Electronic Production und danach 13 Jahre lang als Chefredakteur und Herausgeber für Elektronikfertigungs-, Test- und Designzeitschriften wie ‚What’s New in Electronics‘ und ‚Australian Electronics Engineering‘ bei Trinity Mirror, CMP und RBI in UK und Australien tätig. Im Jahr 2006 machte sich Steven Keeping als freier Journalist mit Fachgebiet Elektronik selbstständig. Er lebt in Sydney.


Alle Autoren

Alle anzeigen Alle anzeigen
Blog nach Datum anzeigen