Deepfakes
Oszustwa, Technologia

Deepfakes co to takiego

Jak i dlaczego działają filmy typu deepfake – i co jest zagrożone

Deepfakes zamieniają twarze celebrytów w filmach porno i wkładają słowa do ust polityków, ale mogą zrobić znacznie gorzej.

 

 

Definicja Deepfake

Deepfakes to  lub nagrania dźwiękowe, które wyglądają i brzmią jak prawdziwe. Kiedyś stosowane przez  komentatorów hollywoodzkich studiów z efektami specjalnymi i agencji wywiadowczych produkujących propagandę, takich jak CIA lub dyrekcja JTRIG GCHQ (grupa analityczna ds. Badań nad zagrożeniami), dziś przez każdego kto może pobrać oprogramowanie do Deepfake i tworzyć przekonujące fałszywe filmy w wolnym czasie.

Do tej pory deepfakes ograniczały się do amatorskich hobbystów, którzy umieszczali twarze gwiazd na ciałach gwiazd porno i zmuszali polityków do mówienia śmiesznych rzeczy. Jednak równie łatwo byłoby stworzyć fałszywe ostrzeżenie alarmowe ostrzegające o zbliżającym się ataku, zniszczyć czyjeś małżeństwo fałszywym filmem erotycznym lub zakłócić bliskie wybory, upuszczając fałszywe nagranie wideo lub audio jednego z kandydatów dni przed rozpoczęciem głosowania.

Jak niebezpieczne są deepfakes?

To denerwuje wielu ludzi do tego stopnia, że ​​Marco Rubio, republikański senator z Florydy i kandydat na prezydenta 2016, nazwał ich nowoczesnym odpowiednikiem broni nuklearnej. „W dawnych czasach” – powiedział kilka tygodni temu publiczności w Waszyngtonie – „jeśli chciałeś zagrozić Stanom Zjednoczonym, potrzebowałeś 10 lotniskowców, broni nuklearnej i pocisków dalekiego zasięgu. Dzisiaj wystarczy tylko dostęp do naszego systemu internetowego, do naszego systemu bankowego, do naszej sieci elektrycznej i infrastruktury, a coraz bardziej wszystko, czego potrzebujesz, to zdolność do stworzenia bardzo realistycznego fałszywego wideo, które może podważyć nasze wybory, które może wpędzić nasz kraj w ogromny kryzys wewnętrzny i osłabić głęboko. ”

Polityczna hiperbola wypaczona przez sfrustrowane ambicje, czy też deepfakes naprawdę stanowią większe zagrożenie niż broń nuklearna? Rubio mówi, “zmierzamy do Armageddonu”. Jednak nie wszyscy się z tym zgadzają.

 

„Nie jest tak niebezpieczny jak bomby atomowe? Nie sądzę” – mówi Tim Hwang, dyrektor ds. Etyki i zarządzania AI w Berkman-Klein Center i MIT Media Lab. „Myślę, że z pewnością niepokojące są pokazy, które widzieliśmy. Myślę, że są niepokojące i rodzą wiele pytań, ale jestem sceptyczny, że zmieniają grę w sposób sugerowany przez wiele osób”.

Jak działają deepfakes

Widzenie to wiara, ale prawda jest taka, że ​​wiara to widzenie: ludzie szukają informacji, które potwierdzają to, w co chcą wierzyć, i ignorują resztę.

Hackowanie tej ludzkiej tendencji daje złośliwym aktorom dużo mocy. Widzimy to jako dezinformację (tak zwaną „fałszywą wiadomością”), która tworzy umyślne kłamstwa, które następnie rozprzestrzeniają się pod pozorem prawdy. Kiedy sprawdzający fakty zaczynają wycie w proteście, jest już za późno, a #PizzaGate to już coś.

Deepfakes wykorzystują tę ludzką tendencję za pomocą generatywnych sieci przeciwników (GAN), w których ujawniają się dwa modele uczenia maszynowego (ML). Jeden model ML trenuje na zestawie danych, a następnie tworzy fałszerstwa wideo, podczas gdy drugi próbuje wykryć fałszerstwa. Fałszerz tworzy podróbki, dopóki inny model ML nie będzie w stanie wykryć fałszerstwa. Im większy zestaw danych treningowych, tym łatwiej jest fałszerzowi stworzyć wiarygodną podróbkę. Właśnie dlatego filmy dawnych prezydentów i hollywoodzkich celebrytów były często wykorzystywane w tym wczesnym, pierwszym pokoleniu deepfakes – istnieje mnóstwo publicznie dostępnych nagrań wideo, aby dobrze szkolić fałszerza.

Problem stanowią także proste podróbki

Okazuje się, że filmy o niskiej technologii mogą być równie skuteczną formą dezinformacji, jak zaawansowane fake , jak wyraźnie widać kontrowersje wokół udokumentowanego filmu o konfrontacji prezydenta Trumpa z reporterem CNN Jimem Acostą na listopadowej konferencji prasowej. Film wyraźnie pokazuje stażystkę z Białego Domu próbującą zabrać mikrofon z Acosty, ale późniejsza edycja sprawiła, że ​​wyglądało to tak, jakby reporter CNN zaatakował stażystę.

Incydent podkreśla obawy, że wideo można łatwo zmanipulować, aby zdyskredytować cel wybranego przez napastnika – reportera, polityka, biznes, markę. Jednak w przeciwieństwie do tak zwanych „głębokich płatków”, gdzie uczenie maszynowe wkłada słowa do ust ludzi, udokumentowane wideo o niskiej technologii jest wystarczająco blisko rzeczywistości, że zaciera granicę między prawdą a fałszem.

FUD (strach, niepewność i wątpliwości) jest znany ludziom pracującym w okopach bezpieczeństwa, a zastosowanie tego FUD jako broni na dużą skalę może poważnie zaszkodzić zarówno firmie, jak i osobie fizycznej. Obrona przed atakami FUD jest bardzo trudna. Po zasianiu wątpliwości, że Acosta obsadził stażystkę w Białym Domu, nietrywialna część widzów nigdy nie zapomni tego szczegółu i podejrzewa, że ​​to może być prawda.

GAN mają oczywiście wiele innych zastosowań niż robienie fałszywych filmów erotycznych i wkładanie słów do ust polityków. Sieci GAN są dużym krokiem naprzód w tak zwanym „uczeniu się bez nadzoru” – kiedy modele ML uczą się. Jest to bardzo obiecujące, ponieważ poprawi zdolność pojazdów do samodzielnego prowadzenia pojazdów do rozpoznawania pieszych i rowerzystów, a także sprawi, że aktywowani głosem cyfrowi asystenci, tacy jak Alexa i Siri, będą bardziej rozmowni. Niektórzy zwiastują GAN jako „wyobraźnię AI”.

Zwykli użytkownicy mogą pobrać FakeApp i od razu zacząć tworzyć własne deepfakes. Korzystanie z aplikacji nie jest super łatwe, ale umiarkowanie maniakalny użytkownik nie powinien mieć żadnych problemów, jak pokazał Kevin Roose dla New York Times na początku tego roku.

To powiedziawszy, istnieje tak wiele innych form skutecznej dezinformacji, że skupianie się na grze w „Whack-a-Mole” z deepfakes jest złą strategią, mówi Hwang CSO. „Myślę, że nawet w chwili obecnej okazuje się, że istnieje wiele tanich sposobów, które nie wymagają głębokiego uczenia się lub uczenia maszynowego w celu oszukiwania i kształtowania opinii publicznej”.

Na przykład nagrywanie wideo ludzi bijących kogoś na ulicy, a następnie tworzenie fałszywej narracji wokół tego filmu – na przykład twierdzenie, że atakujący to imigranci do Stanów Zjednoczonych – nie wymaga wymyślnego algorytmu ML, a jedynie wiarygodna fałszywa narracja i pasujące wideo.

Jak wykryć deepfakes

Wykrywanie deepfakes jest trudnym problemem. Amatorskie amfiteatry można oczywiście wykryć gołym okiem. Inne objawy, które mogą wykryć maszyny, to brak mrugania oczami lub cienie, które wyglądają źle. Sieci GAN generujące deepfakes cały czas stają się coraz lepsze, a wkrótce będziemy musieli polegać na cyfrowej analizie kryminalistycznej, aby wykryć deepfakes – jeśli w ogóle będziemy mogli je wykryć.

Jest to tak trudny problem, że DARPA rzuca pieniądze na badania, aby znaleźć lepsze sposoby uwierzytelniania wideo. Ponieważ jednak GAN można samemu wyszkolić w zakresie unikania takich technik kryminalistycznych, nie jest jasne, że to bitwa, którą możemy wygrać.

„Teoretycznie, jeśli podałeś GAN wszystkie znane nam techniki jego wykrycia, może on przejść wszystkie te techniki,” powiedział David Gunning, kierownik programu DARPA odpowiedzialny za projekt, powiedział MIT Technology Review . „Nie wiemy, czy jest jakiś limit. Nie jest jasne.”

Krytycy ostrzegają, że jeśli nie będziemy w stanie wykryć fałszywych filmów, możemy wkrótce zostać zmuszeni do nieufności do wszystkiego, co widzimy i słyszymy. Internet pośredniczy teraz w każdym aspekcie naszego życia, a brak zaufania do wszystkiego, co widzimy, może doprowadzić do „końca prawdy”. Zagraża to nie tylko wierze w nasz system polityczny, ale w dłuższej perspektywie nasza wiara w to, co jest wspólną obiektywną rzeczywistością. Jeśli nie możemy się zgodzić na to, co jest rzeczywiste, a co nie, to w jaki sposób możemy omawiać kwestie dotyczące polityki? alarmiści lamentują.

Hwang uważa jednak, że to przesada. „Nie widzę, abyśmy przekraczali jakiś mistyczny próg, po którym nie dowiemy się, co jest prawdziwe, a co nie.”

Pod koniec dnia szum wokół deepfakes może być najlepszą ochroną, jaką mamy. Jesteśmy w pogotowiu, że wideo można w ten sposób sfałszować, a to zabiera żądło głębokich podróbek.

Fałszywa pornografia – realistyczne zagrożenie

Politycy kłamią tak długo, jak istnieje polityka, a zagrożenie głębokimi podróbkami demokracji jest przesadzone. Bardziej realistycznym zagrożeniem jest jednak tworzenie głęboko fałszywej pornografii, która stawia głowę celebryty – a może byłej dziewczyny – na ciele gwiazdy porno.

To jak pornograficzna zemsta, tylko bez pornografii. Wszystko, czego potrzebuje twórca porno, to fałszywe zdjęcia ofiary, które można łatwo pobrać z kanału społecznościowego tej osoby, oraz kilkuminutowy film z twarzą ofiary. Nawet celebrytki, z których wielu jest przyzwyczajonych do pewnego rodzaju nienawiści publicznej, wyraziły przerażenie, odkrywając swoje głowy nałożone na ciało gwiazdy porno w sprośnym wideo.

Deepfakes

Czasami Deepfakes nie polegają na zapalaniu gazu, ale na zastraszaniu lub nękaniu. Wydaje się to znacznie bardziej prawdopodobne niż ci, którzy twierdzą, że Deepfakes stanowią egzystencjalne zagrożenie dla demokracji.

Jak regulujemy, aby zapobiec głębokim podróbkom?

Czy Deepfakes są legalne? To drażliwe pytanie i nierozwiązane. Należy wziąć pod uwagę Pierwszą Poprawkę, ale potem prawo własności intelektualnej, prawo do prywatności, a także nowe ustawy o zemście pornograficznej, które wiele stanów w USA uchwaliło ostatnio.

W wielu przypadkach platformy takie jak Gfycat i Pornhub aktywnie usuwają z witryn fałszywe filmy porno, twierdząc, że takie treści naruszają ich warunki świadczenia usług. Deepfakes o różnorodności pornograficznej są nadal udostępniane na mniej popularnych platformach.

Jednak jeśli chodzi o mowę polityczną, która nie jest obelżywa o charakterze seksualnym, linie stają się rozmyte. Pierwsza poprawka chroni prawo polityka do okłamywania ludzi. Chroni prawo do publikowania niewłaściwych informacji, przypadkowo lub celowo. Rynek pomysłów ma za zadanie oddzielić prawdę od fałszu, a nie cenzora rządowego lub de facto cenzora egzekwującego arbitralne warunki świadczenia usług na platformie mediów społecznościowych.

Organy regulacyjne i ustawodawcy nadal zmagają się z tym problemem.

Wczesne przykłady Deepfakes (z lat dwudziestych)

Pomyśl o fałszywych filmach z wiadomościami – o politycznej różnorodności – czy to nowa rzecz pod słońcem? Pomyśl jeszcze raz. Przez pokolenie po wynalezieniu kina, fałszywe wiadomości wideo w celu przedstawienia prawdziwych wiadomości były na równi z kursem.

W czasie, gdy film mógł przepłynąć ocean przez tygodnie, twórcy filmowi dramatyzowali trzęsienia ziemi lub pożary za pomocą małych zestawów, aby wiadomości były bardziej realistyczne. W latach dwudziestych XX wieku wysyłanie czarno-białych zdjęć za pośrednictwem kabli transoceanicznych było ostatnią modą, a filmowcy używali prawdziwych fotografii do tworzenia scen zniszczenia.

Leave a Comment

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

*

Instagram