InvezzInvezz

Deepfake: Brytyjska firma Arup pada ofiarą oszustwa na 25 milionów dolarów. Jak możesz się chronić?

Invezz

Brytyjska międzynarodowa firma projektowo-inżynieryjna Arup, znana z kultowych budynków, takich jak Opera w Sydney, potwierdziła, że stała się celem oszustwa typu deepfake.

W wyniku tego wyrafinowanego oszustwa jeden z pracowników firmy w Hongkongu przekazał oszustom 25 milionów dolarów.

Na czym polegało oszustwo?

W styczniu Arup powiadomił policję w Hongkongu o zdarzeniu, potwierdzając, że wykorzystano fałszywe głosy i obrazy.

Oszustwo dotyczyło pracownika finansowego, który dał się oszukać, aby wziął udział w rozmowie wideo z osobami, które według niego były dyrektorem finansowym i innymi pracownikami, a wszyscy oni byli fałszywymi rekonstrukcjami.

Pomimo początkowych podejrzeń dotyczących wiadomości e-mail phishingowej realistyczny wygląd i głosy jego rzekomych współpracowników skłoniły pracownika do kontynuowania transakcji na łączną kwotę 200 milionów dolarów hongkońskich (25,6 miliona dolarów) w ramach 15 przelewów.

Rosnące zagrożenie ze strony fałszywych technologii

Incydent ten podkreśla rosnące zaawansowanie technologii deepfake.

Rob Greig, globalny dyrektor ds. informacji w firmie Arup, powiedział:

„Podobnie jak wiele innych firm na całym świecie, nasza działalność jest przedmiotem regularnych ataków, w tym oszustw na fakturach, oszustw typu phishing, fałszowania głosu w WhatsApp i deepfakes”.

Liczba i stopień zaawansowania takich ataków gwałtownie rośnie, co stwarza poważne wyzwania dla firm na całym świecie.

Globalna troska i wewnętrzna reakcja

Władze na całym świecie są coraz bardziej zaniepokojone złośliwym wykorzystaniem technologii deepfake.

W wewnętrznej notatce przewodniczący regionalny firmy Arup na Azję Wschodnią, Michael Kwok, podkreślił rosnącą częstotliwość i wyrafinowanie tych ataków, wzywając pracowników, aby byli na bieżąco i byli czujni w celu wykrycia różnych technik oszustwa.

Odporność operacyjna i ciągłe badania

Pomimo znacznych strat finansowych Arup zapewnił, że nie ma to wpływu na stabilność finansową i działalność biznesową oraz że żaden z jej systemów wewnętrznych nie został naruszony. Firma nadal współpracuje z władzami, a dochodzenie jest w toku.

Ten głośny incydent uwydatnia pilną potrzebę udoskonalenia przez przedsiębiorstwa środków cyberbezpieczeństwa w celu zwalczania rosnącego zagrożenia związanego z technologią deepfake i innymi wyrafinowanymi oszustwami.

Co to jest deepfake?

Deepfake to treść generowana przy użyciu technik głębokiego uczenia się, która wygląda na prawdziwą, ale jest sfabrykowana. Sztuczna inteligencja ( AI ) wykorzystywana do tworzenia deepfakes zazwyczaj wykorzystuje modele generatywne, takie jak generatywne sieci przeciwstawne (GAN) lub automatyczne kodery.

Deepfakes to filmy, nagrania audio lub obrazy przedstawiające osoby lub grupy robiące lub mówiące rzeczy, których nigdy nie robiły.

Aby tworzyć przekonujące treści, sztuczna inteligencja musi trenować na dużych zbiorach danych, aby rozpoznawać i replikować naturalne wzorce.

Technologia Deepfake, choć innowacyjna, otwiera niebezpieczne możliwości nielegalnego wykorzystania, w tym kradzieży tożsamości, fałszowania dowodów, dezinformacji, oszczerstw i obchodzenia zabezpieczeń biometrycznych.

Oszuści często wykorzystują autorytet przedstawianej osoby lub osobiste powiązania ze swoimi celami.

Rodzaje deepfakesów

Deepfakes mogą tworzyć treści wideo, audio lub obrazy, wykorzystywane jako nagrane media lub strumienie w czasie rzeczywistym. Formaty te można spotkać w różnych scenariuszach, od postów w mediach społecznościowych po rozmowy telefoniczne i wideokonferencje.

Zamiana twarzy: ta aplikacja zastępuje rysy twarzy docelowej osoby fałszywymi rysami, często innej osoby.

Techniki takie jak wykrywanie i manipulowanie charakterystycznymi punktami twarzy sprawiają, że mieszanie jest płynne i trudne do wykrycia, gdy zostaniemy przyłapani na nieświadomości.

Klonowanie głosu: ta technika odtwarza głos danej osoby. Do wyszkolenia modelu klonowania głosu potrzebne są wysokiej jakości dane dźwiękowe z nagrań osoby docelowej mówiącej w różnych kontekstach.

Deepfakes wideo w czasie rzeczywistym

Deepfake wideo w czasie rzeczywistym generują zmanipulowaną treść wideo natychmiastowo podczas transmisji na żywo i rozmów wideo.

Aby stworzyć przekonujące fałszywe środowisko, często wykorzystuje się klonowanie głosu i zamianę twarzy. Oprogramowanie do generowania Deepfake można zintegrować z platformami streamingowymi i narzędziami do wideokonferencji na kilka sposobów:

Oddzielna aplikacja przechwytuje, przetwarza i wysyła zmanipulowany obraz wideo do oprogramowania konferencyjnego.

Bezpośrednia integracja z oprogramowaniem do wideokonferencji jako opcjonalna funkcja lub wtyczka.

Używanie kamery wirtualnej do przechwytywania obrazu wideo z kamery fizycznej i wysyłania zmanipulowanego sygnału.

Jak uchronić się przed deepfake’ami?

W miarę rozwoju technologii deepfake niezwykle istotna jest ochrona siebie i swojej organizacji przed oszustwami. Oto kilka sposobów ochrony przed deepfakes:

Uważaj na sygnały ostrzegawcze: szukaj nierealistycznych wyrazów twarzy lub ruchów, niespójności w oświetleniu i cieniach, nienaturalnych ruchów głowy lub ciała oraz niedopasowanej jakości dźwięku i obrazu.

W przypadku podejrzeń bądź proaktywny: wdawaj się w swobodną rozmowę, aby zaskoczyć oszusta. Poproś tę osobę o udostępnienie ekranu lub potwierdzenie swojej tożsamości, podając ekskluzywne informacje lub wysyłając wiadomość z potwierdzeniem innym kanałem.

Skonfiguruj hasło: ustal hasło lub hasło do poufnych tematów ze współpracownikami i członkami rodziny. Ta metoda jest skuteczna w komunikacji głosowej, wideo i tekstowej.

Technologia Deepfake wiąże się ze znacznymi zagrożeniami, które wymagają czujności i proaktywnych środków w celu ich ograniczenia.

Rozumiejąc rodzaje deepfakes i wdrażając strategie ich identyfikacji i przeciwdziałania, osoby i organizacje mogą lepiej chronić się przed potencjalnymi oszustwami.

W miarę ciągłego rozwoju generatywnej sztucznej inteligencji, bycie na bieżąco informowanym i przygotowanym ma kluczowe znaczenie dla ochrony przed rosnącym zagrożeniem ze strony deepfakes.