deepfake

Sharing is caring!

Deepfake: czy nadchodzi kryzys naszej prywatności, bezpieczeństwa i demokracji?

 

Zdążyliśmy się już przyzwyczaić, że programy takie jak Adobe Photoshop pozwalają artystom, filmowcom i gwiazdom  instagrama manipulować obrazami w celach rozrywkowych. Ale mnóstwo nowych narzędzi wspomaganych sztuczną inteligencją może pozwolić przeciętnemu człowiekowi skutecznie nakręcić film o dowolnej osobie lub powiedzieć, co chce.  Bez jego zgody.

Jak działa deepfake i podobne technologie?

Podróbki tworzone są na podstawie algorytmów opartych o uczenie maszynowe. Technologia sieci neuronowych, może nauczyć się funkcji dowolnej twarzy i mapować ją na ciała w filmach. Program, pobiera zestaw danych wielu zdjęć twarzy należących jednej osoby, np. setki zdjęć popularnej celebrytki,  a następnie zgrywa je z  wideo. Główną różnicą pomiędzy programami graficznym a deepfake, jest rozpoznawanie mimiki twarzy, co pozwala na dokładne odzwierciedlenie zachowania danej osoby.  Po kilku godzinach nauki, lub dniach możemy ujrzeć daną osobę na filmie w którym wcale nie uczestniczyła!

Czym grozi technologia rodem z roku 1984 G.Orwella, możemy tylko się domyślać. Na filmiku powyżej widzimy człowieka, który w usta prezydenta USA, może włożyć każde zdanie. W epoce ogromnej ilości informacji ogromnym problemem są fake newsy, clickbajty i generalnie ogrom nierzetelnych i nieprawdziwych wiadomości. Deepfake powoduje, że ten problem staje się czymś więcej. Czymś co może zagrozić naszym najbardziej oczywistom prawom.

Deepfake w branży porno.

Jak możemy się domyślić nowa technologia pojawia się nie tylko w tematach politycznych. Sztuczna inteligencja pozwala na tworzeniu filmów porno o prawie każdym! Także z Twoim udziałem, drogi czytelniku.




W ciągu ostatnich kilku miesięcy „deepfake” przeszedł od nonsensownego słowa do powszechnie używanego synonimu filmów, w których twarz jednej osoby jest cyfrowo wszczepiona w ciało innej osoby. Najbardziej popularnym i niepokojącym typem deepfake jest sztucznie produkowane porno podmieniające twarze znanych aktorek. Strony takie jak Reddit i Pornhub  w ostatnim czasie dokonały ruchów, aby zakazać pornograficznych przeróbek, ale nigdy nie było to łatwiejsze dla każdego, kto ma połączenie z internetem, aby stworzyć niepokojąco realistyczną pornografię, mapując niemal każdą twarz na aktorów porno.

Trzeba pamiętać, że edycja cyfrowa tego rodzaju, oczywiście, była możliwa od dawna z oprogramowaniem takim jak Photoshop,ale sztuczna inteligencja pomaga zautomatyzować proces, czyniąc go szybszym i łatwiej dostępnym. Jeśli chcesz zrobić fałszywe wideo za pomocą programu Photoshop, musisz edytować każdą pojedynczą ramkę. Uczenie maszynowe wykonuje dla ciebie tę ciężką pracę – jeśli masz trochę wiedzy technicznej. Cały czas powstają też aplikacje, które pozwalają na podmianę twarzy w kilku prostych ruchach.

Wyobraźmy sobie sytuację w szkole, kiedy ktoś utworzy fałszywe porno koleżanki z klasy. Pobieranie obrazów źródłowych byłoby dość łatwe – choćby z Facebook’a , a nawet gdyby generowana treść wyglądała na fałszywą, to taka forma dręczenia i zastraszania może wyrządzić wielką szkodę młodej osobie. W epoce, w której hejterzy będąc zupełnie anonimowymi używają internetu do prowadzenia uporczywych i często szkodliwych kampanii nienawiści, potencjalna szkoda jest ogromna.

Pomimo tworzenia nowego, fałszywego porno istnieje jednak wielu twórców, którzy uważają, że ich filmy nie są szkodliwe dla ludzi, których przedstawiają. Na wielu forach jest to topowy temat. Podczas gdy niektórzy użytkownicy Reddit gwałtownie odrzucili praktykę, porównując pornograficzne wstawianie twarzy ludzi do czegoś w rodzaju cyfrowego ataku, inni zaczęli stosować popularne postacie polityczne, takie jak Michelle Obama. Jeszcze inni twierdzili, że podrabianie filmów z udziałem celebrytów jest akceptowalne, ale mniejszych  np. youtuber’ów  i zwykłych Kowalskich już nie. . Z pewnością to co niesie  ze sobą technologia deepfake wygląda jak jeden z odcinków „Black Mirror”. Tylko dzieje się na prawdę.

Co na to prawo?

Prawda jest bolesna – nie jesteśmy w praktycznie żadnym stopniu przygotowani na ochronę danych osobowych w takiej formie. Kradzież wizerunku rozumiana w tej formie jest czymś zupełnie innym niż to z czym sądy miały do tej pory do czynienia. RODO, które wejdzie w życie w Maju w żadnym stopniu nie dotyka tego tematu, gdyż było tworzone zanim pojawił się deepfake. Mamy tutaj przykład technologii, której rozwój wymyka się naszej kontroli.

W jaki sposób mogłaby bronić się ofiara upokarzających filmów na swój temat. Zniesławienie? No cóż, może, ale te przypadki są drogie i trudne do wygrania, a jeśli twórca jest anonimowy lub za granicą, to sprawa będzie praktycznie niemożliwa do wygrania.

Nie możesz też oskarżyć kogoś o naruszenie prywatności, gdy intymne szczegóły, które ujawniają, nie należą do twojego życia. Witryny stron trzecich, na których znajdują się filmy, nie są w żaden sposób odpowiedzialne za wideo, ani nie możesz ich zmusić do usunięcia – chyba że właściciel praw autorskich do oryginalnego filmu stwierdzi naruszenie.




Co więcej, ponieważ te narzędzia stają się bardziej wyrafinowane i realistyczne –  za pewien czas mogą być wykorzystywane do takich rzeczy jak przekupstwo, produkcja fałszywych dowodów i dowolna liczba innych działań przestępczych. Nie mówiąc już o propagandzie politycznej, a to wszystko z względną łatwością.

Co będzie dalej?

Stoi przed nami ogromne wyzwanie, musimy nauczyć się przeciwdziałać szkodliwym skutkom sztucznej inteligencji. Być może będzie to oznaczać tworzenie kolejnych algorytmów opartych o sztuczną inteligencję, które będą wykrywać fałszywe filmy i zdjęcia.

Tu pojawia się kolejny problem – co jeśli staniemy się w konsekwencji uzależnieni od systemów chroniących nas przed sztuczną technologią, a które same będą na tej technologii oparte? Pytanie też jak wyglądać będzie tempo rozwoju technologii. Czy w ciągu najbliższych lat, a może tylko miesięcy, filmy z deepfake rozwiną się w taki sposób, że nikt nie będzie w stanie odróżnić prawdy od fikcji?

 

 

 

Share Button

One thought on “Deepfake: czy nadchodzi kryzys naszej prywatności, bezpiecześtwa i demokracji?”

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *