Filmy utworzone technologią deepfake powstają dzięki sztucznej inteligencji. Generowane są one przez algorytmy uczenia maszynowego i w ostatnich latach zyskały sporo uwagi. Podczas konferencji RSA Conference 2020 Alyssa Miller wyjaśniła, dlaczego nadszedł czas, aby uznać tę technologię za zagrożenie, a także co mogą zrobić firmy, aby złagodzić jej skutki, gdy zostaną w taki sposób zaatakowane.
W jaki sposób powstają filmy typu deepfake
Do utworzenia filmu uznanego za deepfake wykorzystywany jest system o nazwie GAN (generatywna sieć współzawodnicząca). Składają się one z dwóch konkurujących ze sobą głębokich sieci neuronowych, trenowanych na prawdziwych obrazach. Następnie rozpoczyna się część współzawodniczenia, w której udział bierze jedna sieć generująca obrazy (stąd nazwa generatywna) i druga próbującą określić, czy obraz jest prawdziwy, czy fałszywy (ta druga sieć jest nazwana dyskryminująca).
Później sieć generatywna uczy się na podstawie wyniku, a dyskryminująca dowiaduje się, jak zwiększyć swoją skuteczność. Z każdym cyklem obie sieci są coraz lepsze.
Po na przykład kilku milionach cykli szkoleniowych generatywna sieć neuronowa wie, jak wygenerować fałszywy obraz, którego równie zaawansowana sieć neuronowa nie może odróżnić od prawdziwego.
Metoda ta jest aktualnie używana w wielu aplikacjach; w zależności od danych przygotowawczych sieć generatywna uczy się generować pewnego rodzaju obrazy.
Oczywiście podczas tworzenia filmów typu deepfake algorytm jest uczony na prawdziwych zdjęciach określonych osób. W efekcie sieć może generować nieskończoną liczbę przekonujących (lecz fałszywych) zdjęć osoby, które można następnie zintegrować w filmie. Podobne metody mogą generować fałszywy dźwięk, a oszuści prawdopodobnie używają już dźwięku deepfake.
Na ile przekonujące są już filmy typu deepfake
Pierwsze filmy deepfake wyglądały zabawnie, jednak technologia ta ewoluowała na tyle, że na tę chwilę stały się one bardzo przekonujące. Jednym z najważniejszych przykładów z 2018 roku było oszustwo, w którym ktoś podszył się pod Baracka Obamę. W połowie 2019 roku pojawił się krótki film podszywający się pod Marka Zuckerberga, który zadziwiająco szczerze wypowiedział się na temat bieżącego stanu prywatności.
Aby przekonać się, jak zaawansowana stała się ta technologia, obejrzyj poniższy film. Impresjonista Jim Meskimen przygotował go we współpracy z artystą tworzącym filmy deepfake, Sham00k. Ten pierwszy był odpowiedzialny za głosy, a drugi użył twarzy 20 celebrytów w filmie, posiłkując się oprogramowaniem deepfake. Efekty są naprawdę imponujące.
Jak przyznaje Sham00k w opisie swojego filmu, „stworzenie całego filmu zajęło 250 godzin, 1200 godzin materiału, 300000 obrazów i wygenerowało blisko 1 terabajt danych”. Wynika z tego, że utworzenie takiego filmu to niemały wyczyn. Mimo to tak przekonujący element dezinformacyjny może potencjalnie wywołać masowy efekt na rynkach — albo na przykład na wyniki wyborów — co sprawia, że proces ten wydaje się przerażająco łatwy i niedrogi.
Z tego względu niemal w tym samym czasie, w którym opublikowany został wspomniany wyżej film, Kalifornia uznała, że w okresie sezonu wyborczego filmy deepfake związane z polityką są nielegalne. Jednak nie eliminuje to problemu. Ogólnie filmy deepfake są pewną formą ekspresji — jak satyra polityczna. Wprowadzony przez Kalifornię zakaz nie chroni wolności słowa.
Drugi problem jest zarówno natury technicznej, jak i praktycznej: skąd mieć pewność, że film deepfake nie jest prawdziwy?
Po czym rozpoznać filmy deepfake
Uczenie maszynowe to ostatni krzyk mody wśród naukowców z całego świata, a problem z filmami deepfake wygląda ciekawie i stanowi kuszące wyzwanie. Z tego względu powstały nowe projekty badawcze, których zadaniem jest sprawdzenie, w jaki sposób analiza obrazu może pomóc w wykryciu filmów deepfake.
Na przykład dokument opublikowany w czerwcu 2018 roku opisuje, w jaki sposób analizować mruganie, aby wykryć film deepfake. Chodzi o to, że zazwyczaj nie mamy wystarczającej liczby zdjęć mrugania danej osoby, aby sieci neuronowe mogły zostać na nich wytrenowane. W rzeczywistości ludzie przedstawiani na filmach deepfake mrugali zbyt rzadko, a przez to można było dostrzec trudną do zidentyfikowania rozbieżność, a pomogła w tym analiza komputerowa.
Dwa dokumenty opublikowane w listopadzie 2018 roku sugerowały szukanie nietypowych na twarzy artefaktów oraz niespójnej mimiki. W innym, opublikowanym w 2019 roku, opisana została wyrafinowana technika, która analizuje mimikę twarzy i poruszania głową typową dla wzorca mówienia danej osoby.
Jednak jak wskazuje Miller, metody te raczej nie odniosą sukcesu na długą metę. W rzeczywistości badacze są źródłem opinii zwrotnej dla twórców filmów deepfake, przez co pomagają im w ulepszeniu takich dyskryminacyjnych sieci neuronowych, co z kolei prowadzi do jeszcze skuteczniejszego szkolenia sieci generatywnych i dalszych ulepszeń w filmach deepfake.
Używanie komunikacji firmowej do łagodzenia zagrożeń ze strony filmów typu deepfake
Uwzględniając powyższe problemy, na tę chwilę żadne czysto technologiczne rozwiązanie problemu związanego z filmami deepfake nie będzie skuteczne. Jednak istnieją inne możliwości: zagrożenie można zmniejszyć poprzez skuteczną komunikację. Musisz monitorować informacje związane z Twoją firmą i przygotować się na kontrolowanie narracji, która może pojawić się w czasie dezinformacji.
Prezentacja Alyssy Miller zaleca przygotowanie się firm na erę filmów deepfake poprzez stosowanie się do poniższych zaleceń (nawiasem mówiąc, te same sposoby mogą być przydatne także do radzenia sobie z innymi rodzajami wpadek działu PR):
- minimalizuj kanały dla komunikacji firmowej,
- zapewnij spójną dystrybucję informacji,
- przygotuj plan reagowania na dezinformację (traktuj ją jak incydent bezpieczeństwa),
- zorganizuj scentralizowane monitorowanie i raportowanie,
- zachęcaj do odpowiedzialnego prawodawstwa i weryfikacji faktów w sektorze prywatnym,
- monitoruj tworzenie środków wykrywających zagrożenia i zapobiegających im.