Jak zdemaskować sztuczną inteligencję? Wystarczy drobnostka
Obrazy generowane przez sztuczną inteligencję są coraz częstsze w mediach społecznościowych. Mają jednak jeden mankament – dłonie postaci.

Sztuczna inteligencja coraz częściej wkracza w nasze codzienne życie. W związku z wszechobecnymi treściami generowanymi przez AI, ważna staje się umiejętność odróżniania treści generowanych przez sztuczną inteligencję od tych, które są dziełem człowieka.
W przypadku tekstów różne firmy pracują nad rozwiązaniem problemu. Istnieją również specjalne programy dostępne online, które specjalizują się w wykrywaniu fałszywych zdjęć generowanych przez sztuczną inteligencję. Jest jednak sposób prostszego poradzenia sobie z wykrywaniem zdjęć generowanych. Jak wskazują specjaliści, w celu ocenienia, czy zdjęcia są dziełem fotografa czy AI, wystarczy przyjrzeć się dłoniom postaci.


![Monitor HP E24mv G4 23.8" 1920x1080px IPS 5 ms [GTG]](https://www.mediaexpert.pl/media/cache/resolve/gallery_xml/images/32/3275978/Monitor-HP-E24mv-G4-1.jpg)
Znani ludzie wytworem sztucznej inteligencji
Sztuczna inteligencja wytwarza współcześnie bardzo wiarygodne zdjęcia. Najbardziej znanymi fotografiami, na które dało się nabrać wiele osób są zdjęcia z aresztowania Donalda Trumpa, Marka Zuckerberga na wybiegu podczas pokazu mody oraz papieża Franciszka w grubej, białej kurtce.
W zdjęciach wytworzonych z użyciem sztucznej inteligencji można znaleźć jednak pewne mankamenty. Jeśli masz wątpliwości co do autentyczności danego zdjęcia, pierwszym krokiem w celu oceny jego prawdziwości może być obserwacja rąk ludzi – radzą eksperci. Dowodzą tego wymienione wcześniej zdjęcia papieża Franciszka. Na jednym ze zdjęć widoczna jest niedokładność w odtworzeniu właśnie rąk.
Dłonie jako problematyczna część ciała
Powodem niedokładnego odwzorowywania rąk jest rodzaj danych, którymi AI była karmiona. Najczęściej obrazy i zdjęcia przedstawiające ludzi skupiają się na uwiecznieniu twarzy lub sylwetki. Dłonie są mało widoczne, zaciemnione albo schowane. Dotyczy to zwłaszcza fotografii grupowych.
Amelia Winger-Bearskin, profesor sztuki i sztucznej inteligencji na Uniwersytecie we Florydzie, wskazuje, że na obrazach, z których sztuczna inteligencja może czerpać dane, ręce są często niekompletne. Na fotografiach ludzie nierzadko trzymają jakiś przedmiot, albo wykonują nienaturalne gesty. Do tego dochodzi też kwestia rękawów. W rezultacie, dążąc do perfekcyjnego odtworzenia dłoni, AI musiałaby otrzymać bardzo ściśle wyselekcjonowany zbiór danych.
Obrazy generowane przez sztuczną inteligencję są coraz częstsze. Natrafić na nie można zwłaszcza w mediach społecznościowych, gdzie są rozpowszechniane z uwiarygadniającymi opisami. Sposobem na rozpoznanie fałszywych informacji mogą więc być zniekształcone dłonie, przynajmniej dopóki politycy nie wypracują rozwiązań wymuszających informowanie o braku autentyczności publikowanych fotografii.