Jak rozpoznać, że zdjęcie jest fejkiem wygenerowanym przez sztuczną inteligencję?

Systemy AI służące do generowania obrazów są już tak dobre w tym, co robią, że te fejkowe zdjęcia najlepiej wykryje tylko inna sztuczna inteligencja.
.get_the_title().

Coraz częściej mamy styczność ze ‘zdjęciami’, które nigdy nie zostało zrobione, choć wyglądają niezwykle realistycznie. Jedne przedstawiają ludzi, którzy nie istnieją, inne pokazują papieża w modnej białej puchówce. Są tak dobre, że w ich prawdziwość uwierzy każdy nieświadomy obserwator. Czy więc ludzie, którzy nie specjalizują się w systemach AI, są w stanie odróżnić prawdziwe zdjęcia od tych, które wygenerował DALL-E, Midjourney lub Stable Diffusion?

Są pewne elementy, których wygenerowanie może być problematyczne dla sztucznej inteligencji. Najbardziej znanym przykładem są chyba zęby i dłonie. Algorytm długo nie był w stanie odtworzyć ręki z odpowiednią ilością palców, obecnie jednak zaczęły pojawiać się obrazy, które są wygenerowane bez najmniejszych błędów.

W ciągu ostatniego roku wielu naukowców zaczęło badać to, czy ludzie są w stanie odróżnić zdjęcia prawdziwych osób od tych wygenerowanych przez AI. Wyniki były przygnębiające.

Ostatecznie badacze m.in. z Pennsylvania State University oraz Lancaster University w Anglii stworzyli zbiór rad dotyczących tego, na czym warto się skupić, analizując zdjęcia – z czym najczęściej sztuczna inteligencja sobie nie radzi. Naukowcy radzą zwracać uwagę m.in. na niedopasowane kolczyki lub rozmyte zęby. Algorytmy często mają też trudności ze stworzeniem czegoś bardziej kreatywnego i szczegółowego niż zwykłe, jednolite tło.

Madhav Kohli

Najlepszą metodą wykrywania nieprawdziwych obrazów i zdjęć jest, jak na ironię, inny system sztucznej inteligencji, który byłby odpowiednio wyszkolony. Jednak i te systemy mają wady. Większość takich algorytmów jest szkolona na obrazach z określonego generatora sztucznej inteligencji i nie potrafi zidentyfikować ‘podróbek’ tworzonych przez inne programy. Co więcej, takie detektory AI zawsze będą starały się nadążyć za generatorami obrazów, które szybko stają się coraz lepsze. Niektóre z nich same wyposażone są w algorytmy, które wykrywają różnice między prawdziwymi i sztucznymi zdjęciami. Wykorzystują je jednak do nauczenia się, jak sprawić, by ich wygenerowane obrazy były nie do odróżnienia od prawdziwych.

Jako gatunek ludzki dorastamy w przekonaniu, że zobaczyć znaczy uwierzyć. To już tak nie działa.

Wielu ekspertów jest zdania, że media społecznościowe muszą zacząć kontrolować treści generowane przez sztuczną inteligencję, które pojawiają się na ich stronach. Giganci technologiczni są lepiej przygotowani do wdrażania algorytmów wykrywania nieprawdziwych obrazów niż indywidualni użytkownicy.

Tekst: MZ
Zdjęcie główne: Alfred Wahlforss/BeFake

FUTOPIA