Kampf gegen KI
Im Jahr 2022 wickelten US-Banken mehr als 448 Milliarden US-Dollar an Peer-to-Peer-Transaktionen (P2P) ab, Dies macht diese Plattformen zu einem Hauptziel für Betrüger. Wie bei „klassischen“ Betrugsparadigmen wie Phishing wird Zelle- oder Venmo-Betrug zunehmend durch künstliche Intelligenz (KI) vorangetrieben.Da Cyberkriminelle die Macht des maschinellen Lernens (und bald auch der generativen KI) nutzen, um Betrugserkennungssysteme zu überlisten, müssen sich die Technologien zur Online-Betrugsprävention entsprechend weiterentwickeln.
Das rasante Tempo der digitalen Transformation hat unserer Gesellschaft und Wirtschaft enorme Vorteile gebracht. Es ist auch ein großer Segen für Cyberkriminelle, die wie die von ihnen angegriffenen Unternehmen täglich die Cloud-Infrastruktur nutzen, um ihre Abläufe zu skalieren. Neue Modelle des böswilligen maschinellen Lernens (ML) nutzen die Leistungsfähigkeit der Cloud und bieten die Möglichkeit, Aufgaben zu automatisieren, die vor einigen Jahren nur Menschen ausführen konnten.
Daher setzt die nächste Innovationswelle im Bereich Betrug auf Cloud-basierte KI – oder genauer gesagt ML – und macht die moderne Betrugsprävention effektiv zu einem „Kampf der Maschinen“. Diese Kämpfe beginnen normalerweise damit, dass Betrüger den ersten Schritt machen und Cloud-Dienste nutzen, um ML-Modelle zu erstellen, die in der Lage sind, die Abwehrmechanismen zu umgehen, die Unternehmen zur Erkennung offensichtlicher Betrugsfälle aufgebaut haben.
Stellen Sie sich ein typisches System zur Betrugsbekämpfung im Einzelhandel vor. Angenommen, ein Unternehmen legt eine Regel fest, nach der an bestimmten Standorten Transaktionen über 900 US-Dollar automatisch zur sekundären Überprüfung gekennzeichnet werden. Ein ML-Tool könnte so programmiert werden, dass es durch Versuch und Irrtum den Punkt berechnet, an dem hochwertige Transaktionen überprüft werden. Dann muss der Angreifer nur noch dafür sorgen, dass seine betrügerischen Transaktionen unter 900 US-Dollar bleiben und sich am richtigen Standort befinden, um einer Entdeckung zu entgehen. Was einst ein zeitaufwändiger Prozess war, wird durch cloudbasierte Analysen zu einer einfachen Angelegenheit.
Selbst hochentwickelte ML-Modelle können von böswilliger KI auf Schwachstellen untersucht und angegriffen werden. Je undurchsichtiger KI-Systeme werden, desto riskanter ist ihr Einsatz in Produktionsumgebungen. Menschen werden nur ein begrenztes Verständnis ihres Verhaltens und der Ergebnisse haben, die sie möglicherweise erzeugen. Um effektiv zu bleiben, müssen sie außerdem auf Daten früherer Angriffe geschult werden. Diese Kombination macht sie anfällig für Ausbeutung, wenn sie mit einem etwas anderen Szenario konfrontiert werden. Es bedarf nur einiger gezielter Versuche und Verbesserungen, damit böswillige KI diese Versäumnisse und blinden Flecken erkennt.
Das ist nicht alles. KI könnte auch gefälschte Bilddaten des Gesichts eines Benutzers generieren, die überzeugend genug sind, um die Durchführung einer Transaktion zu ermöglichen, da der Prüfcomputer davon ausgeht, dass es sich um ein Foto eines neuen Benutzers handelt. Oder es könnte mit öffentlichen Video- oder Audiodaten (z. B. in sozialen Medien geposteten Clips) trainiert werden, um sich bei Authentifizierungsprüfungen als legitime Kunden auszugeben. In ähnlicher Weise könnte KI darauf trainiert werden, menschliches Verhalten wie Mausbewegungen nachzuahmen, um Maschinen zu überlisten, die darauf ausgelegt sind, Anzeichen nichtmenschlicher Aktivitäten bei Transaktionen zu erkennen. Es könnte sogar verschiedene Kombinationen gestohlener Daten generieren, um Validierungsprüfungen zu umgehen – eine rechenintensive Aufgabe, die mithilfe der öffentlichen Cloud gelöst werden kann.
Cyberkriminelle haben gegenüber Verteidigern oft einen Vorteil, und das ist derzeit bei Online-Betrügern der Fall, die KI nutzen. Sie haben das Überraschungsmoment und die finanzielle Motivation, erfolgreich zu sein. Dennoch können Betrugs- und Risikoteams böswilliger KI entgegenwirken, indem sie ihre eigenen Ansätze optimieren. KI kann von den Bösewichten trainiert werden, um menschliches Verhalten realistischer nachzuahmen. Wenn es jedoch bei automatisierten Angriffen eingesetzt wird, muss es dennoch wie ein Bot eingesetzt werden, der durch Optimierung und Innovation von Betrugserkennungsalgorithmen erkannt werden kann.
Verteidiger können durch den Einsatz neuer und verbesserter ML-Algorithmen nicht nur ihre Verteidigung stärken, sondern auch das Schlachtfeld in ein Schlachtfeld verwandeln, das ihnen einen strategischen Vorteil verschafft. Durch die Verlagerung der Betrugserkennung an den Rand des Netzwerks, viel näher an den Geräten, die für Online-Transaktionen verwendet werden, schaffen Verteidiger beispielsweise eine Dynamik, in der ungewöhnliches oder risikoreiches Verhalten leichter und mit höherer Genauigkeit erkannt werden kann.
Durch die Nutzung bestehender Infrastrukturen wie Content Delivery Networks (CDNs) kann die Betrugserkennung relativ nahtlos an den Rand verlagert werden. Durch die Verlagerung der Betrugserkennung an den Edge erhält man nicht nur einen viel klareren und detaillierteren Überblick über das Online-Erlebnis eines Benutzers (oder „Customer Journey“, wie Branchenkenner es gerne nennen), sondern schafft auch eine reichhaltigere und differenziertere Basis, die es einfacher macht Erkennen und vereiteln Sie bösartige KI.
Durch die Erfassung von Informationen über die gesamte Sitzung des Benutzers hinweg besteht eine größere Möglichkeit, maschinengenerierte Anomalien zu erkennen. Auch die flexible Signalgenerierung kann ein leistungsstarkes Werkzeug im Arsenal eines Sicherheitsingenieurs sein. In den obigen Beispielen könnte es verwendet werden, um eine Bildanalyse auszulösen, sobald ein Bild hochgeladen wird. Oder um Mausbewegungen auf nicht-finanziellen Transaktionsseiten mit solchen zu vergleichen, auf denen eine Finanztransaktion initiiert wird. Darüber hinaus liefert eine größere Transparenz des Kundenerlebnisses aus strategischer Sicht mit Sicherheit wertvolle Erkenntnisse, die andere Geschäftsfunktionen unterstützen können.
KI wird sehr schnell sehr ausgefeilt. Die Verlagerung der Betrugserkennung an den Rand ist eine präventive Maßnahme, die es Betrügern erschweren kann, erfolgreich zu sein, und die Wahrscheinlichkeit erhöht, dass sie einfach zu anfälligeren Zielen übergehen. In jedem Fall läutet die geschickte Anwendung cloudbasierter ML-Modelle zur Begehung und Abwehr von Online-Betrug den Beginn eines neuen, Cloud-nativen, KI-gesteuerten Wettrüstens ein.
Schnall dich an, der Kampf der Maschinen hat begonnen.
,