Spośród wszystkich przerażających mocy Internetu najbardziej przerażająca może być umiejętność oszukiwania niczego nie podejrzewających. Clickbait, zdjęcia zrobione w Photoshopie i fałszywe wiadomości to jedne z najgorszych przestępców, ale w ostatnich latach pojawiło się także nowe potencjalnie niebezpieczne narzędzie znane jako sztuczna inteligencja Deepfake.
Termin „fałszywy” odnosi się do podrobionych, generowanych komputerowo materiałów wideo i audio, które trudno odróżnić od autentycznych, niezmienionych treści. Służy do filmowania, czym jest Photoshop dla obrazów.
Jak działa sztuczna inteligencja?
Narzędzie opiera się na tak zwanych generatywnych sieciach przeciwników (GAN), technice wynalezionej w 2014 r. Przez doktora Iana Goodfellowa. student, który obecnie pracuje w Apple, poinformował Popular Mechanics.
Algorytm GAN obejmuje dwa oddzielne AI, jeden generujący treść - powiedzmy zdjęcia ludzi - i przeciwnika, który próbuje zgadnąć, czy obrazy są prawdziwe, czy fałszywe, według Vox. Generująca sztuczna inteligencja zaczyna się od prawie żadnego pojęcia, jak ludzie wyglądają, co oznacza, że jej partner może łatwo odróżnić prawdziwe zdjęcia od fałszywych. Ale z czasem każdy rodzaj sztucznej inteligencji staje się coraz lepszy, a ostatecznie generująca sztuczna inteligencja zaczyna wytwarzać treści, które wyglądają idealnie jak żywe.
Przykłady Deepfake
Sieci GAN to imponujące narzędzia i nie zawsze są wykorzystywane do szkodliwych celów. W 2018 r. Obraz wygenerowany przez GAN naśladujący holenderski styl „Old Master” artystów takich jak XVII-wieczny Rembrandt van Rijn sprzedany w domu aukcyjnym Christie za niewiarygodne 432 500 $.
W tym samym roku Deepfakes zyskały na znaczeniu, głównie dzięki użytkownikowi Reddit, który nosił nazwę „deepfakes” - poinformował Vice. Technikę GAN często stosowano do umieszczania twarzy znanych osobistości - w tym Gal Gadot, Maisie Williams i Taylor Swift - na ciałach aktorów filmowych.
Inne sieci GAN nauczyły się robić pojedyncze zdjęcie osoby i tworzyć dość realistyczne alternatywne zdjęcia lub filmy tej osoby. W 2019 roku deepfake może generować przerażające, ale realistyczne filmy, w których Mona Lisa mówi, porusza się i uśmiecha w różnych pozycjach.
Deepfakes mogą również zmieniać zawartość audio. Jak donosi The Verge na początku tego roku, technika ta może podzielić nowe słowa na wideo osoby mówiącej, sprawiając wrażenie, że powiedzieli coś, czego nigdy nie zamierzali.
Łatwość wdrożenia nowego narzędzia ma potencjalnie przerażające konsekwencje. Jeśli ktokolwiek w dowolnym miejscu może zrealizować realistyczne filmy przedstawiające celebrytę lub polityka mówiącego, poruszającego się i wypowiadającego słowa, których nigdy nie wypowiedziały, widzowie są zmuszeni bardziej uważać na treści w Internecie. Jako przykład wystarczy posłuchać ostrzeżenia prezydenta Obamy przed „zatartą” dystopijną przyszłością w tym filmie z Buzzfeed, stworzonym przy użyciu deepfake'a reżysera Jordana Peele.