Erforschen Sie die Rolle von KI in der Finanzbranche und entdecken Sie, wie die Technologie von Betrügern missbraucht, aber auch zur Aufdeckung von Betrug eingesetzt werden kann.
Der Bericht des ABA Banking Journal vom November 2022 zeigt, dass die Finanzindustrie und der Bankensektor stark von Betrug betroffen sind und dass jeder durch Betrug verlorene Dollar mittlerweile 4,36 Dollar an Folgekosten, wie z. B. Rechtskosten, verursacht. Da diese Kosten auch zukünftig weiter steigen werden, hat sich künstliche Intelligenz (KI) als zweischneidiges Schwert erwiesen — ein Werkzeug, das einerseits für Betrüger sowie andererseits für die Betrugserkennung als Dienstleistung eingesetzt werden kann.
Dieser Artikel untersucht diese doppelte Rolle der KI. Unser Hauptaugenmerk liegt darauf, zu zeigen, wie KI missbraucht werden kann, um Betrug zu begehen, aber auch, wie die Technologie dazu beitragen kann, Betrug von vornherein zu verhindern.
Betrugskosten im Banken- und Finanzsektor
Die Kosten von Betrug im Banken- und Finanzsektor sind ein vielschichtiges Problem, das die finanzielle Gesundheit dieser Institutionen und das Vertrauen der Kunden in sie beeinträchtigt. Bankbetrug ist ein wachsendes Problem, das ständige Wachsamkeit erfordert — doch es gibt auch immer ausgefeiltere Lösungen, um Betrug einzudämmen.
Die Top 5 Betrugsfälle in Finanzinstituten der jüngsten Vergangenheit
In jüngster Zeit gab es im Finanzsektor einige aufsehenerregende Fälle von Bankbetrug. Diese Vorfälle zeigen, wie weit verbreitet diese Fälle sind und wie wichtig eine solide Betrugsprävention und entsprechende Mechanismen sind.
- Klagen gegen T.D. Bank, Capital One und Wells Fargo. Diese Banken wurden mit Klagen konfrontiert, in denen sie aufgefordert wurden, die Verantwortung für das Geld zu übernehmen, das Kunden an Betrüger verloren hatten.
- Diebstahl von COVID-Rettungsfonds. Der massive Diebstahl von COVID-Rettungsgeldern setzte sich 2021 fort und betraf zahlreiche Finanzinstitute.
- Betrug durch Hochstapelei. Die FTC berichtete, dass die am häufigsten gemeldeten Betrugsfälle in die Kategorie der Hochstapelei fielen, gefolgt von Online-Shopping und negativen Bewertungen.
- Handelsbasierte Geldwäsche (TBML). TBML war eine der neuen Herausforderungen und kriminellen Machenschaften, mit denen sich die Experten für Betrug und Finanzkriminalität im Jahr 2021 auseinandersetzen mussten.
- Danske Bank Betrug. Die Danske Bank bekannte sich schuldig, US-Banken im Rahmen eines milliardenschweren Plans betrogen zu haben, um sich Zugang zum US-Finanzsystem zu verschaffen.
Die Entwicklung von Betrug kann in zwei verschiedene Richtungen gehen. Einerseits kann KI das Risiko von Betrug und betrügerischen Aktivitäten potenziell erhöhen, indem sie Betrügern hochentwickelte Werkzeuge an die Hand gibt. Andererseits kann KI das Risiko betrügerischer Aktivitäten verringern, indem sie die Fähigkeiten von Betrugserkennungssystemen verbessert. Daher ist es von entscheidender Bedeutung, dass Finanzinstitute in fortschrittliche KI-gestützte Betrugserkennungs- und -präventionssysteme investieren und sich für mehr Compliance-Standards, Betrugserkennungsmechanismen, geeignete Tools und regulatorische Vorschriften für den Einsatz von KI einsetzen.
KI-basierte Betrugsfälle
KI-basierter Betrug im Finanzsektor und beim Online-Banking ist ein wachsendes Problem. Betrüger nutzen zunehmend fortgeschrittene Technologien und spezialisierte Tools für ausgeklügelte Betrügereien und Kreditkartenbetrug. Hier einige Beispiele, wie künstliche Intelligenz bei betrügerischen Aktivitäten eingesetzt wird.
Synthetischer Identitätsbetrug
Betrüger nutzen künstliche Intelligenz, um synthetische Identitäten zu erstellen, die eine Kombination aus echten und gefälschten Informationen sind. Mit diesen Identitäten eröffnen sie gefälschte Kundenkonten und führen darüber Transaktionen aus. KI ist in der Lage, realistische persönliche Daten zu generieren, so dass es für herkömmliche Betrugserkennungssysteme schwierig ist, diese synthetischen Identitäten als gefälscht zu identifizieren. Laut VentureBeat sammeln Angreifer beispielsweise große Mengen verfügbarer personenbezogener Daten (PII), angefangen bei Identifikationsnummern und Geburtsdaten, um neue synthetische Identitäten zu erstellen.
Diese synthetischen Identitäten werden oft mit legitimen Informationen aus gestohlenen Daten wie Sozialversicherungsnummern erstellt, während die gefälschten Informationen erfundene Namen, Adressen oder Geburtsdaten enthalten können. KI-Algorithmen sind in der Lage, synthetische Identitäten zu erstellen, die sehr überzeugend sind und sogar herkömmlichen Überprüfungen standhalten können. Diese Identitäten werden verwendet, um Bankkonten zu eröffnen, Kredite zu beantragen, Transaktionen durchzuführen und/oder Einkäufe zu tätigen, was zu erheblichen finanziellen Verlusten durch die Kontoübernahme führen kann.
Deepfakes
KI kann Deepfakes erstellen, d. h. echte gefälschte Videos oder Audioaufnahmen. Im Finanzsektor können sich Betrüger mithilfe von Deepfakes beispielsweise als Führungskräfte oder andere wichtige Mitarbeiter ausgeben, um betrügerische oder unbefugte Transaktionen auf Online-Konten zu autorisieren oder Aktienkurse zu manipulieren. Wie FinTech Futures berichtet, kann ein Krimineller zum Beispiel ein Deepfake eines Antragstellers kreieren und damit ein Konto eröffnen, wobei er viele gesetzliche Anforderungen und die üblichen Kontrollen umgeht. Dies kann zu einer schnellen Übernahme des Kontos führen, ohne dass die Person überhaupt merkt, was passiert.
Deepfakes nutzen KI und Machine Learning (ML), um Bild- und Toninhalte mit hohem Täuschungspotenzial zu manipulieren oder zu fälschen. Die Technologie kann realistisch aussehende Fotos und Videos von Personen erstellen, die Dinge sagen und tun, die sie nie getan haben, was zu Identitätsdiebstahl und Manipulation führen kann. Ein bemerkenswertes Beispiel ist das virale Deepfake von Tom Cruise, das von dem VFX-Künstler Chris Ume erstellt wurde und über TikTok millionenfach angesehen wurde. Das Deepfake war so überzeugend, dass es eine Debatte über die Echtheit des Videos auslöste. Dieser CNN-Artikel und dieses YouTube-Video geben weitere Einblicke in die Entstehung des Tom Cruise Deepfake.
Automatisiertes Hacking
KI und ML können auch zur Automatisierung von Hacking-Versuchen eingesetzt werden. KI kann beispielsweise für sogenannte Brute-Force-Angriffe eingesetzt werden, bei denen das System sämtliche Kombinationen testet, um ein Passwort zu knacken. KI kann außerdem eingesetzt werden, um Schwachstellen in einem System zu identifizieren, die ausgenutzt werden können. Laut MDPI könnten Bankhacker KI-Algorithmen verwenden, um in Daten einzudringen oder Schwachstellen in den Sicherheitssystemen von Banken aufzudecken.
Technisch gesehen kann KI genutzt werden, um den Prozess der Entdeckung und Ausnutzung von Schwachstellen in Soft- und Hardwaresystemen zu automatisieren. Dies kann von der Identifizierung schwacher Passwörter durch Brute-Force-Angriffe bis hin zum Scannen nach ungepatchten Software-Schwachstellen reichen, die ausgenutzt werden können. KI kann auch verwendet werden, um die Erstellung und Verbreitung von Malware zu automatisieren, damit diese effizienter und effektiver Systeme infizieren und der Entdeckung entgehen kann. So könnte KI beispielsweise zur Erstellung polymorpher Malware eingesetzt werden, die ihren Code so verändert, dass sie signaturbasierte Erkennungssysteme umgeht.
Social Engineering
Mit Hilfe von KI können ausgeklügelte Social-Engineering-Angriffe durchgeführt werden. Beispielsweise kann KI die Social-Media-Profile und andere Online-Aktivitäten einer Person analysieren, um personalisierte Phishing-E-Mails zu erstellen, die mit größerer Wahrscheinlichkeit erfolgreich sind. KI verändert das Social Engineering, indem sie es Bedrohungsakteuren erleichtert, Verhaltensdaten auszulesen, um Benutzer zu manipulieren, zu beeinflussen oder zu täuschen und so die Kontrolle über ein Computersystem zu erlangen, was häufig zu Identitätsdiebstahl führt.