Sztuczna inteligencja w oszustwach w usługach finansowych i bankowości: przypadki użycia i rozwiązania

Sztuczna inteligencja
w oszustwach
w usługach
finansowych
i bankowości

laptop

O zastosowaniu sztucznej inteligencji w sektorze finansowym — z perspektywy zarówno oszustów, jak i specjalistów ds. zabezpieczeń.

Z raportu ABA Banking Journal z listopada 2022 r. wynika, że branża finansowa i sektor bankowy ucierpiały w znacznym stopniu ze względu na oszustwa, a każdy 1 dolar utracony w wyniku oszustwa kosztuje obecnie 4,36 dolara w powiązanych wydatkach, np. w opłatach za obsługę  prawną. Ponieważ koszty te nadal rosną, sztuczna inteligencja (AI) stała się swego rodzaju mieczem obosiecznym — narzędziem, które może być wykorzystywane zarówno przez oszustów, jak i specjalistów od ich wykrywania. Artykuł stanowi omówienie tej podwójnej roli sztucznej inteligencji. Głównym celem jest pokazanie, w jaki sposób sztuczna inteligencja może być wykorzystywana do popełniania oszustw, ale także w jaki sposób technologia ta może pomóc im zapobiegać.

Koszty oszustw w sektorze bankowym i finansowym

Koszty oszustw w sektorze bankowym i finansowym to złożona kwestia, która wpływa na kondycję finansową tych instytucji, a także na zaufanie ich klientów. Oszustwa bankowe stają się coraz poważniejszym problemem, który wymaga coraz większej czujności i ostrożności. Na szczęście rozwijają się też jednocześnie zaawansowane rozwiązania, które mają na celu zapobiegać tego typu sytuacjom lub łagodzić ich skutki.

5 przypadków największych oszustw wśród instytucji finansowych w ostatnim czasie

Ostatnio było dość głośno o kilku większych przypadkach oszustw w sektorze bankowym. Przypadki te dobitnie przypominają nam o tym, że oszustwa wśród instytucji finansowych są czymś wszechobecnym. Stąd też tak ważna jest potrzeba wdrażania sprawdzonych, solidnych mechanizmów ochrony.

  1. Pozwy wobec T.D. Bank, Capital One, and Wells Fargo. Banki te zostały pozwane przez swoich klientów, ponieważ utracili oni swoje pieniądze w następstwie oszustw.
  2. Kradzież funduszy pomocowych COVID-19. W 2021 roku wciąż dochodziło do kradzieży funduszy pomocowych przeznaczanych do walki z wirusem COVID-19 – i to na naprawdę wielką skalę.
  3. Wyłudzenia. Według analiz FTC najczęściej zgłaszanymi rodzajami oszustw były próby wyłudzenia danych i pieniędzy (np. nigeryjski szwindel). Kolejne miejsca w tym niechlubnym rankingu zajęły oszustwa na portalach zakupowych oraz negatywne recenzje i oceny.
  4. Pranie pieniędzy w oparciu o handel  (TBML). TBML, czyli pranie pieniędzy w oparciu o handel, było jednym z nowych rodzajów działań przestępczych, z którymi specjaliści ds. oszustw i przestępstw finansowych musieli zmierzyć się w 2021 roku.
  5. Oszustwo Danske Banku. Danske Bank przyznał się do winy w sprawie udziału w wielomiliardowym oszustwie polegającym na udzieleniu swoim klientom spoza Estonii (uznanych za klientów wysokiego ryzyka) dostępu do amerykańskiego systemu bankowego.

Jak już wspomniano, oszustwa w sektorze finansowym to kwestia, na którą należy spojrzeć dwojako. Z jednej strony sztuczna inteligencja może potencjalnie zwiększyć ryzyko występowania oszustw, ponieważ dzięki niej oszuści zyskują dostęp do zaawansowanych narzędzi. Z drugiej jednak strony, sztuczna inteligencja może zmniejszyć ryzyko wystąpienia nieuczciwych działań czyniąc systemy bankowe i finansowe bardziej odpornymi na próby oszustw. Dlatego też kluczowe znaczenie dla instytucji finansowych mają inwestycje w zaawansowane systemy wykrywania oszustw i zapobiegania im oparte na sztucznej inteligencji, a także opowiadanie się za większą liczbą standardów zgodności, mechanizmów wykrywania oszustw, odpowiednich narzędzi i przepisów, które mogłyby regulować korzystanie ze sztucznej inteligencji.

Przypadki oszustw wykorzystujących sztuczną inteligencję

Oszustwa, w których wykorzystuje się sztuczną inteligencję i których celem jest branża finansowa i sektor bankowości internetowej budzą coraz większe obawy. Oszuści coraz częściej sięgają po zaawansowane technologie i specjalistyczne narzędzia, aby realizować coraz bardziej wymyślne scenariusze. Oto kilka przykładów oszustw z udziałem sztucznej inteligencji.

Syntetyczna kradzież tożsamości

Oszuści wykorzystują sztuczną inteligencję do generowania syntetycznych tożsamości, które stanowią połączenie prawdziwych i fałszywych informacji. Wykorzystują te tożsamości do otwierania fałszywych kont i dokonywania transakcji na tych kontach. Sztuczna inteligencja jest w stanie generować bardzo realistyczne dane osobowe, przez co tradycyjne systemy wykrywania oszustw nie zawsze są w stanie uznać tego typu dane i tożsamości za nieprawdziwe. Według  VentureBeat oszuści zbierają duże ilości informacji identyfikowalnych osobowo (PII – personally identifiable information) – począwszy od wszelkich numerów identyfikacyjnych czy dat urodzenia – w celu stworzenia nowych syntetycznych tożsamości.

Te syntetyczne tożsamości są często tworzone przy użyciu legalnych informacji ze skradzionych danych, które obejmują m.in. numery ubezpieczenia społecznego, natomiast sfałszowane informacje to np. zmyślone nazwiska, adresy lub daty urodzenia. Algorytmy AI potrafią tworzyć syntetyczne tożsamości, które wyglądają bardzo przekonująco i są nawet w stanie przejść tradycyjne procesy weryfikacyjne. Tożsamości te są wykorzystywane do otwierania kont bankowych, ubiegania się o kredyt, dokonywania fałszywych transakcji i/lub fałszywych zakupów, co oczywiście prowadzi do znacznych strat finansowych na skutek przejęcia kont prawdziwych osób.

Deepfake

Sztuczna inteligencja może tworzyć tzw. deepfakes, czyli bardzo realistyczne zdjęcia, materiały filmowe lub audio, które nie są prawdziwe. W sektorze finansowym oszuści mogą wykorzystywać technologię deepfake do podszywania się pod członków kadry kierowniczej, czy innych pracowników wysokiej rangi, aby autoryzować fałszywe lub nieautoryzowane transakcje na kontach bankowych albo np. manipulować cenami akcji. Jak donosi FinTech Futures, oszust może stworzyć fałszywą wersję wnioskodawcy i użyć jej do otwarcia konta, omijając wiele wymogów prawnych i mechanizmów kontroli. W ten sposób jest w stanie szybko przejąć czyjeś konto, a właściciel tego konta może nawet nie mieć świadomości tego, że coś takiego miało miejsce.

Deepfakes korzystają z potencjału sztucznej inteligencji i uczenia maszynowego, aby modyfikować lub tworzyć obraz i dźwięk. Technologia ta generuje realistyczne zdjęcia i filmy przedstawiające ludzi mówiących rzeczy, których nigdy nie mówili i wykonujących czynności, których nigdy nie wykonywali, co może prowadzić do kradzieży tożsamości i manipulacji. Dobrym przykładem jest tu deepfake Toma Cruise’a, stworzony przez artystę VFX Chrisa Umé. Nagranie ma milony wyświetleń na TikToku. Deepfake był tak przekonujący, że wywołał cały szereg dyskusji na temat jego autentyczności. Warto zapoznać się z artykułem CNN i tym YouTube video aby dowiedzieć się, jak powstał ten deepfake i czym zaowocował.

Zautomatyzowane hakowanie

Sztuczna inteligencja i uczenie maszynowe mogą być stosowane w automatyzacji procesu hakowania. Sztuczna inteligencja może być na przykład wykorzystywana do przeprowadzania ataków siłowych, w ramach których narzędzie hakujące używa każdej możliwej kombinacji w celu złamania hasła. Sztuczna inteligencja może być również wykorzystywana do wykrywania luk w systemie, które można później wykorzystać na potrzeby ataku hakerskiego. Według MDPI hakerzy mogą korzystać z algorytmów AI, aby uzyskać dostęp do chronionych danych (tzw. naruszenie danych) lub identyfikować słabe punkty w systemach bezpieczeństwa banków.

Mówiąc językiem bardziej technicznym, sztuczna inteligencja może być stosowana do automatyzacji procesu wykrywania i wykorzystywania wszelkich słabości i niedoskonałości oprogramowania i sprzętu komputerowego. Może to obejmować m.in. wykrywanie słabych haseł za pomocą ataków siłowych (ang. brute force) czy wyszukiwanie niezabezpieczonych elementów oprogramowania. Sztuczna inteligencja może być również wykorzystywana do automatyzacji procesu tworzenia i dystrybucji złośliwego oprogramowania, czyniąc je bardziej wydajnym i skutecznym w infekowaniu systemów i trudniej wykrywalnym. Z pomocą AI można tworzyć np. polimorficzne złośliwe oprogramowanie, które zmienia swój kod, żeby nie dać się wykryć systemom wykrywania opartego na sygnaturach.

Inżynieria społeczna

Sztuczna inteligencja może być stosowana do przeprowadzania wyrafinowanych ataków socjotechnicznych. Dzięki AI można na przykład analizować profile danej osoby w mediach społecznościowych i inną aktywność online, aby stworzyć spersonalizowane wiadomości phishingowe, które mają większe szanse odnieść oczekiwany skutek. Sztuczna inteligencja zmienia istotę inżynierii społecznej, ułatwiając oszustom pozyskiwanie danych behawioralnych w celu manipulowania, wywierania wpływu lub oszukiwania innych osób, czego efektem ma być przejęcie kontroli nad systemem komputerowym osoby oszukanej — co z kolei może prowadzić do kradzieży tożsamości.

Mówiąc bardziej szczegółowo, dzięki AI można analizować ogromne ilości danych z różnych źródeł, w tym z profili w mediach społecznościowych, ciemnej sieci (tzw. dark web), aktywności online, a nawet komunikacji osobistej, dzięki czemu oszuści są w stanie tworzyć wysoce spersonalizowane i przekonujące wiadomości phishingowe. Wiadomości te mogą być dostosowane do zainteresowań, aktywności, a nawet stylu pisania danej osoby, co zwiększa prawdopodobieństwo ich otwarcia i podjęcia oczekiwanych działań.

Narzędzia AI mogą być bardzo przydatne na potrzeby phishingu. Jak donosi Forbes, badacze przeprowadzili eksperyment, w ramach którego wykorzystali zaawansowaną technikę o nazwie Indirect Prompt Injection, aby zmusić chatbota Bing do podszywania się pod pracownika Microsoftu, a następnie wygenerowali wiadomości phishingowe, które wymagały od użytkownika weryfikacji danych z karty kredytowej.

Przykłady te pokazują, jak groźne i brzemienne w skutki może być zastosowanie sztucznej inteligencji w sektorze finansowym, jeśli za jej sterami stoi ktoś o złych zamiarach. Dlatego też instytucje finansowe powinny być na bieżąco z najnowszymi doniesieniami w obszarze AI i stawiać na zaawansowane środki bezpieczeństwa, aby przeciwdziałać istniejącym zagrożeniom.

Potencjalny rozwój sztucznej inteligencji w zakresie możliwości wykrywania prób oszustw w sektorze finansowym i bankowym

Za nami kilka przykładów ilustrujących, w jaki sposób sztuczna inteligencja może być wykorzystywana do nieuczciwych działań. Warto zatem teraz spojrzeć na sztuczną inteligencję jako potężne narzędzie do wykrywania oszustw i przyjrzeć się jej zastosowaniu w rozwiązaniach zapobiegających oszustwom. Wraz z rozwojem technologii ewoluują również metody wykrywania oszustw. W tej części artykułu skupiamy się na osiągnięciach w dziedzinie sztucznej inteligencji, które mogą znacznie poprawić skuteczność wykrywania prób oszustw w sektorze finansowym i zapobiegania im.

  1. Integracja sztucznej inteligencji i technologii blockchain. Jednym z najbardziej doniosłych osiągnięć w omawianym obszarze jest wykrywanie oszustw finansowych dzięki integracji AI z technologią blockchain. Blockchain zapewnia bezpieczną, czytelną bazę, w której można przechowywać dane transakcyjne, a sztuczna inteligencja może być wykorzystywana do analizy danych i wykrywania oszustw.
  2. Wykrywanie oszustw w czasie rzeczywistym. Technologie na bazie sztucznej inteligencji mają poprawić skuteczność wykrywania oszustw bankowych w czasie rzeczywistym. Wykrywając anomalie, sztuczna inteligencja może pomóc bankom wyłapać próby oszustw i podjąć natychmiastowe działania zapobiegawcze w przypadku wystąpienia podejrzanych okoliczności.
  3. Ulepszone algorytmy uczenia maszynowego. Wygląda na to, że algorytmy uczenia maszynowego staną się jeszcze bardziej zaawansowane i zdolne do wykrywania bardziej złożonych wzorców działania i zachowań typowych dla oszustw bankowych.
  4. Spersonalizowane wykrywanie oszustw. Sztuczna inteligencja może być również wykorzystywana do tworzenia spersonalizowanych systemów wykrywania oszustw, które biorą pod uwagę konkretne zachowania i wzorce postępowania użytkownika, aby jeszcze lepiej wyłapywać wszelkie przypadki nieuczciwych działań.

Kiedy myślimy o przyszłości branży usług finansowych, nie ma wątpliwości, że sztuczna inteligencja odegra niezwykle istotną rolę w obszarze możliwości wykrywania oszustw. Na tym jednak nie koniec. W następnej części artykułu przyjrzymy się szerszemu zastosowaniu sztucznej inteligencji w kontekście przyszłości oszustw bankowych i branży finansowej. Warto być na bieżąco, aby wiedzieć, w jaki sposób sztuczna inteligencja może zrewolucjonizować świat finansów, kiedy zostanie wykorzystana nie tylko jako narzędzie wspomagające wykrywanie oszustw.

Rola sztucznej inteligencji w kształtowaniu przyszłości branży finansowej i mechanizmów wykrywania oszustw bankowych

Sztuczna inteligencja będzie z dużą pewnością odgrywać bardzo ważną rolę w kształtowaniu przyszłości branży finansowej i sektora bankowego. Wraz z dalszym rozwojem tej technologii, narzędzia AI staną się zapewne integralnym elementem branży finansowej i będą stosowane jako rozwiązania pomagające osiągać lepsze wyniki, obniżać koszty i poprawiać jakość obsługi klienta. Coraz większa i lepsza dostępność AI oznacza też jednak, że może być częściej wykorzystywana w złej wierze. Dlatego też instytucje finansowe muszą stale prowadzić zaawansowane analizy i wdrażać oparte na sztucznej inteligencji systemy wykrywania oszustw i zapobiegania im.

W najbliższej przyszłości możemy spodziewać się większej liczby standardów zgodności, mechanizmów wykrywania oszustw, zarządzania oszustwami, oceny ryzyka, kar i regulacji prawnych, które mogą pomóc nadać właściwy kierunek zastosowaniu sztucznej inteligencji w sektorze finansowym. W ten sposób możemy zyskać pewność, że sztuczna inteligencja będzie działać na korzyść – a nie na niekorzyść – sektora finansowego i bankowego.

Oczywiście istnieją już standardy i przepisy dotyczące stosowania sztucznej inteligencji w tych sektorach. I choć mogą one różnić się w zależności od kraju, mają na ogół na celu zapewnić, że z AI korzysta się w odpowiedzialny i etyczny sposób. Poniżej kilka ważnych, wiarygodnych źródeł, które omawiają tę kwestię bardziej szczegółowo:

  1. Humans keeping AI in check – emerging regulatory expectations in the financial sector (Człowiek jako nadzorca sztucznej inteligencji — coraz większe oczekiwania legislacyjne w sektorze finansowym) to dokument opracowany przez Bank Rozrachunków Międzynarodowych (BIS), gdzie omówiono najbardziej aktualne kwestie dotyczące zarządzania sztuczną inteligencją w sektorze finansowym oraz możliwości decydentów w zakresie ustanowienia odpowiednich standardów i przepisów.
  2. The case for placing AI at the heart of digitally robust financial regulation (Argumenty za nadaniem sztucznej inteligencji szczególnej wagi w szeroko zakrojonych przepisach regulujących funkcjonowanie sektora finansowego) to artykuł opublikowany przez Brookings i mowa w nim o konieczności prawnego uregulowania użycia AI w sektorze finansowym.
  3. Does Your Current Use of AI in Financial Services Align with the US „AI Bill of Rights”? (Czy obecne wykorzystanie sztucznej inteligencji w usługach finansowych jest zgodne z amerykańską Kartą Praw AI?) to artykuł autorstwa BCLP Law, który omawia istniejące obecnie wytyczne w zakresie przepisów regulujących zastosowanie AI w sektorze bankowym oraz zgodność i spójność tych wytycznych z zapisami amerykańskiej Karty Praw AI.
  4. AI in Financial Services in 2022: US, EU and UK Regulation (Sztuczna inteligencja w usługach finansowych w 2022 roku w świetle przepisów obowiązujących w USA, UE i Wielkiej Brytanii) to artykuł autorstwa Pymnts, który zawiera przegląd aktualnych przepisów regulujących korzystanie z AI w sektorze finansowym w USA, UE i Wielkiej Brytanii.
  5. The State of Responsible AI in Financial Services (Odpowiedzialność sztucznej inteligencji w sektorze usług finansowych) to raport FICO, który omawia znaczenie odpowiedzialnej sztucznej inteligencji w usługach finansowych i zapotrzebowanie na sztuczną inteligencję dostosowaną do potrzeb regulacyjnych.
  6. AI Regulation of financial institutions: EU and beyond (Uregulowanie prawne sztucznej inteligencji w instytucjach finansowych: UE i nie tylko) to artykuł Norton Rose Fulbright, gdzie omawiane jest proponowane rozporządzenie Komisji Europejskiej w sprawie sztucznej inteligencji, które miałoby mieć zastosowanie do instytucji finansowych.

Artykuły te stanowią źródło wielu cennych informacji na temat sztucznej inteligencji. Z pewnością okażą się pomocne w zrozumieniu obecnego stanu przepisów dotyczących stosowania sztucznej inteligencji w sektorze finansowym i bankowym.

Słowem podsumowania

Biorąc pod uwagę stały rozwój technologii, wydaje się oczywistym, że sztuczna inteligencja może być wykorzystywana zarówno w dobrym, jak i złym celu. I chociaż to, jakie możliwości AI daje oszustom, nie napawa optymizmem, postępy w obszarze wykrywania i zapobiegania oszustwom opartym na AI są naprawdę obiecujące. Systemy te stają się coraz bardziej zaawansowane i są w stanie wykrywać i skutecznie rozpoznawać złożone wzorce i zachowania wskazujące na oszustwa.

Jeśli instytucjom finansowym zależy na bezpiecznej przyszłości, powinny one stale inwestować w odpowiednie zabezpieczenia i działać na rzecz większej liczby standardów zgodności, mechanizmów zapobiegania oszustwom, a także zasad, które regulują korzystanie ze sztucznej inteligencji. W ten sposób możemy zyskać pewność, że sztuczna inteligencja stanie się naszym sprzymierzeńcem i będzie działać na korzyść — a nie na niekorzyść — sektora finansowego i bankowego.

Jeśli chcesz dowiedzieć się więcej na temat tego, jak można wykorzystać sztuczną inteligencję, aby utrzymać zaufanie klientów na wysokim poziomie i skutecznie zapobiegać oszustwom i praniu brudnych pieniędzy w sektorze bankowym i finansowym, skontaktuj się z nami.

Inne artykuły

lub

Umów spotkanie

Zoom 30 min

lub zadzwoń do nas +1 (857) 302-3414

Rozpocznij rozmowę

Chętnie odpowiemy na Twoje pytania. Skorzystaj z poniższego formularza, aby skontaktować się z nami. Odezwiemy się do Ciebie wkrótce.