Technologia deepfake jest to zaawansowana metoda tworzenia fałszywych materiałów audiowizualnych przy użyciu sztucznej inteligencji. Nazwa pochodzi od angielskich słów deep learning (głębokie uczenie) i fake (fałszerstwo) – wskazuje to na wykorzystanie głębokich sieci neuronowych do generowania obrazów, filmów lub nagrań dźwiękowych wyglądających jak prawdziwe. Typowy deepfake polega na sztucznej syntezie wizerunku lub głosu konkretnej osoby tak, by wypowiadała ona słowa lub wykonywała działania, które w rzeczywistości nigdy nie miały miejsca. Początkowo technika ta kojarzona była z rozrywką internetową – np. aplikacjami do podmiany twarzy w filmach – jednak w ostatnich latach wyszła daleko poza niewinne eksperymenty.
Mechanizm działania deepfake opiera się na algorytmach uczenia maszynowego. Najczęściej wykorzystuje się w tym celu sieci neuronowe typu Generative Adversarial Network (GAN), które uczą się na bazie dużych zbiorów danych (zdjęć lub nagrań danej osoby). Jeden model (generator) tworzy fałszywy obraz lub dźwięk, a drugi (dyskryminator) ocenia jego realizm – sieci te doskonalą się nawzajem, aż powstały materiał audio lub wideo jest nie do odróżnienia od prawdziwego. Dzięki temu możliwe jest przeniesienie twarzy jednej osoby na ciało innej osoby w filmie albo sklonowanie czyjegoś głosu na podstawie krótkiej próbki. Co istotne, współczesne generatory potrafią odtworzyć mimikę, ruch ust i intonację mówcy w sposób bardzo wiarygodny. Eksperci wskazują, że przy użyciu techniki text-to-speech wystarczy już kilka sekund nagranego głosu, aby stworzyć nową wypowiedź brzmiącą jak oryginał, zaś przy bardziej złożonej technice speech-to-speech potrzebna bywa ok. minuta nagrań źródłowych. Rozwój publicznie dostępnych modeli AI sprawił, że wygenerowanie realistycznego deepfake’a trwa obecnie zaledwie kilka minut i nie wymaga wysokich umiejętności technicznych. Ta łatwość dostępu powoduje, że technologia deepfake stała się szeroko wykorzystywana nie tylko w celach naukowych czy artystycznych, ale niestety także przestępczych.
Dynamiczny rozwój deepfake’ów stworzył nowe ryzyka dla biznesu. Jeszcze niedawno wydawało się, że mamy do czynienia z ciekawostką technologiczną, tymczasem dziś fałszywe obrazy i nagrania generowane przez AI stały się narzędziem oszustów. Ich ofiarami padają zarówno osoby prywatne, jak i firmy. Nie mówimy tu o science fiction – oszustwa z wykorzystaniem deepfake już teraz kosztują przedsiębiorstwa ogromne kwoty Dlaczego zjawisko to jest tak groźne akurat dla świata biznesu? Przede wszystkim dlatego, że w obrocie gospodarczym kluczowe znaczenie ma wiarygodność i reputacja osób zarządzających oraz zaufanie pomiędzy partnerami. Deepfake podważa te fundamenty, umożliwiając przestępcom wiarygodne podszywanie się pod innych ludzi lub preparowanie dowodów rzekomych zdarzeń.
W kontekście biznesowym technologia deepfake stanowi zagrożenie dla firm z niemal każdej branży, ale szczególnie narażone mogą być przedsiębiorstwa obracające dużymi pieniędzmi i realizujące wielkie projekty – np. firmy deweloperskie z sektora nieruchomości czy fundusze inwestycyjne. Deweloperzy często polegają na zaufaniu inwestorów, klientów i władz lokalnych. Ich działalność opiera się na reputacji oraz pewności co do wiarygodności informacji (np. ogłoszeń o nowych inwestycjach, decyzji administracyjnych, gwarancji finansowania). Właśnie w tych obszarach deepfake może wyrządzić poważne szkody, umożliwiając m.in. rozpowszechnianie fałszywych komunikatów dotyczących projektów budowlanych, finansowania czy stanu prawnego inwestycji. Firmy deweloperskie, szczególnie te duże i rozpoznawalne, mogą stać się celem ataków ze względu na wysoką wartość potencjalnych oszustw (np. wyłudzenie milionowych sum) oraz medialny rozgłos, jaki wywołałaby kompromitacja ich zarządu. Warto przeanalizować najbardziej prawdopodobne scenariusze takich zagrożeń.
Poniżej przedstawiono konkretne przykłady, jak deepfake może zostać wykorzystany przeciw przedsiębiorcom i jakie zagrożenia to ze sobą niesie:
Podszywanie się pod prezesa lub dyrektora (tzw. CEO fraud) – Jednym z najpoważniejszych zagrożeń jest wykorzystanie deepfake do wyłudzeń finansowych metodą na „fałszywego szefa”. Przestępcy mogą wygenerować sztuczny głos prezesa lub dyrektora finansowego i zlecić telefonicznie pilny przelew dużej kwoty. Tego typu atak miał miejsce w 2019 roku, gdy oszuści podrobili głos prezesa niemieckiej spółki energetycznej, przekonując dyrektora brytyjskiego oddziału do przelania 220 000 euro na zagraniczne konto. Wykorzystana technologia wiernie naśladowała ton i akcent głosu przełożonego, przez co ofiara nie miała powodów kwestionować polecenia. W innym przypadku pracownik działu finansowego uczestniczył w rzekomej telekonferencji z prezesem i współpracownikami, nieświadomy, że twarze i głosy rozmówców zostały sfabrykowane przez algorytm – firma straciła w efekcie 25 mln dolarów. Takie incydenty pokazują, że deepfake umożliwia dokonanie oszustw, które dawniej wydawały się nieprawdopodobne.
Manipulacja nagraniami wypowiedzi (fałszywe oświadczenia) – Kolejnym zagrożeniem jest preparowanie wypowiedzi osób publicznych lub kierownictwa firm w celu wywołania szkód wizerunkowych lub finansowych. Deepfake pozwala stworzyć film rzekomo przedstawiający prezesa, który wygłasza kontrowersyjną opinię lub zapowiada nieprawdziwe wydarzenie. Przykładowo, cyberprzestępcy mogą opublikować fałszywe nagranie, w którym prezes firmy deweloperskiej „przyznaje” się do poważnych naruszeń prawa lub ogłasza bankructwo projektu. Taka manipulacja mogłaby wywołać panikę wśród inwestorów i spadek kursu akcji danej spółki, a reputacja firmy zostałaby poważnie nadszarpnięta zanim prawda wyszłaby na jaw. Równie groźne jest spreparowanie nagrania z ważnej narady lub negocjacji – np. deepfake mógłby “udowadniać”, że przedstawiciel firmy złożył obietnicę lub zobowiązanie, którego w rzeczywistości nie było. Takie fałszywe „dowody” mogą być wykorzystywane szantażująco lub w sporach prawnych, zmuszając firmy do tłumaczenia się z czynów, których nie popełniły.
Fałszywe ogłoszenia inwestycyjne i oferty – W ostatnim czasie odnotowano gwałtowny wzrost oszustw, w których deepfake jest wykorzystywany do tworzenia fałszywych komunikatów biznesowych zachęcających do inwestycji. Oszuści generują nagrania wideo, na których znane osobistości – celebryci, a nawet prezesi dużych spółek – rzekomo promują fikcyjne projekty lub produkty inwestycyjne. Ofiary, widząc na ekranie wiarygodnie wyglądającą postać cieszącą się autorytetem, ufają przekazowi i wpłacają pieniądze do podstawionych funduszy. Przykładowo w Wielkiej Brytanii regulator rynku (ASA) ostrzegł, że przestępcy używają wizerunku znanych osób w fałszywych reklamach, by nakłonić ludzi do udziału w nieistniejących inwestycjach. Również w Polsce zdarzył się przypadek, gdy na Facebooku pojawiło się nagranie z prezesem znanej spółki (InPost), zachęcającym do “wyjątkowo korzystnej” lokaty finansowej – oczywiście był to deepfake, a cała oferta okazała się oszustwem. Dla firm deweloperskich taka forma ataku jest szczególnie niebezpieczna, ponieważ ich marka może zostać wykorzystana do uwiarygodnienia piramidy finansowej lub sprzedaży nieistniejących nieruchomości. W rezultacie mogą ucierpieć zarówno klienci oszukani przez przestępców, jak i sama firma – której wizerunek zostanie powiązany z aferą.
Na szczęście rośnie również świadomość obrony: istnieją procedury i narzędzia, które mogą znacząco zredukować podatność na atak z użyciem deepfake. Kluczem jest proaktywne podejście – edukacja pracowników, wdrożenie odpowiednich zabezpieczeń technicznych oraz gotowość do szybkiej reakcji, gdy pojawią się pierwsze sygnały o fałszywym materiale. Tylko łącząc wysiłki na polu organizacyjnym, technologicznym, komunikacyjnym i prawnym, firmy mogą skutecznie chronić się przed negatywnymi skutkami tej nowej technologii:
1. Edukacja zespołu
2. Procedury weryfikacyjne
3. Technologia przeciwdziałania
4. Zabezpieczenia PR i wizerunku
5. Cyberubezpieczenie
Deepfake nie jest już futurystyczną ciekawostką, lecz realnym zagrożeniem dla przedsiębiorców. Umożliwia on oszustwa i manipulacje na niespotykaną dotąd skalę – od wyłudzeń wielomilionowych kwot po niszczenie reputacji firm poprzez fałszywe materiały w mediach. Szczególnie firmy deweloperskie i działające w sektorze nieruchomości muszą być świadome tego ryzyka, gdyż operują w obszarze dużych finansów i publicznego zaufania i z tego powodu mogą być łakomym kąskiem dla cyberprzestępców.